Teorie mindware
Postmediacje
Wokół interfejsów
Sztuka mediów
Mindware Technologie dialogu pod redakcją Piotra Celińskiego
Lublin 2012
Książka powstała w ramach modułu teoretycznego projektu Mindware. Technologie dialogu, który odbył się w Lublinie w ramach Krajowego Programu Kulturalnego Polskiej Prezydencji 2011. Organizatorami KPKPP 2011 były Ministerstwo Kultury i Dziedzictwa Narodowego, Ministerstwo Spraw Zagranicznych oraz Narodowy Instytut Audiowizualny. Projekt Mindware. Technologie dialogu został zrealizowany przez Warsztaty Kultury i Miasto Lublin. Tom ukazuje się we współpracy z Wyższą Szkołą Przedsiębiorczości i Administracji w Lublinie. Redaktor naukowy, koncepcja wydawnicza Piotr Celiński Recenzent prof. dr hab. Andrzej Gwóźdź Redaktor Joanna Pikuła Opracowanie dokumentacji modułu artystycznego projektu Mindware. Technologie dialogu Zbigniew Sobczuk Projekt graficzny, projekt okładki i skład Karol Grzywaczewski, Idalia Smyczyńska Wydawcy Warsztaty Kultury – Filia Centrum Kultury w Lublinie – www.warsztatykultury.pl Wyższa Szkoła Przedsiębiorczości i Administracji w Lublinie – www.wspa.pl © Autorzy © Warsztaty Kultury – Filia Centrum Kultury w Lublinie © Wyższa Szkoła Przedsiębiorczości i Administracji w Lublinie Książka powstała we współpracy z Narodowym Instytutem Audiowizualnym ISBN: 978-83-63145-04-0 ISBN: 978-83-60617-33-5 Druk I - F drukarnia – www.if-drukarnia.pl
Perspektywy dialogu nauki i sztuki w pracach Art Orienté Objet i Paula Vanouse’a Maciej Ożóg
Ku kognitywnej przestrzeni publicznej – strategie otwierania Anna Nacher
Wirtualne samobójstwo jako definitywny akt polityczny Geoff Cox
Hackers GNUnited! Johan Söderberg
Narzędzia umysłu Paweł Frelik
Splot umysłu z oprzyrządowaniem i oprogramowaniem. Eksplikacja negatywistyczna Roman Bromboszcz
Media wyobrażone Piotr Celiński
Generacje: Jak komputer stał się maszyną generującą naszą kulturę? Peter Lunenfeld
Od mediów mechanicznych do mediów społecznych Peter Weibel
Wstęp
161
147
133
115
103
87
69
35
13
7
Spis treści
Layout info
O autorach
Mindware. Technologie dialogu – Lublin, październik 2011. Dokumentacja
Mindware – sztuka wobec technologii cyfrowych w Lublinie Marta Ryczkowska, Zbigniew Sobczuk
Happy end mitu wieży Babel Marcin Skrzypek
Egzoetyka: O potrzebie poszukiwania nieantropocentrycznego źródła moralności Michał Brzeziński
Społeczne i intymne interfejsy cyberkultury Michał Derda-Nowakowski
Chwytanie ruchu Paweł Janicki
Mindware: Technologie umysłu i umysł technologiczny w perspektywie antropologii mediów i badań nad komunikacją Anna Maj
312
310
273
257
239
229
211
201
181
Teorie mindware
Postmediacje
Wokół interfejsów
Sztuka mediów
Teorie mindware
Postmediacje
Wokół interfejsów
Sztuka mediów
Wstęp
7
9
Powołujemy do życia nowe słowa i konstruujemy pojęcia, kiedy istniejące przestają wystarczać do opisu zmieniającego się świata. Działamy tak, wierząc w sprawczą moc języka, który odpowiednie dając rzeczy słowo, stwarza rzeczywistość, porządkuje, precyzuje i poszerza naszą zdolność do jej rozumienia. Intuicją taką kierowaliśmy się, wywołując wyszyldowaną w tytule tomu kategorię mindware. Neologizmem tym otagowali współdzieloną rzeczywistość teoretycy mediów, animatorzy kultury, artyści pracujący z mediami oraz kuratorzy ich sztuki, którzy współpracowali w zakresie projektu Mindware. Technologie dialogu, który odbył się w ramach programu kulturalnego towarzyszącego polskiej prezydencji w Radzie UE w październiku 2011 roku (www.mindware.art.pl). Konotacyjnym zadaniem taga było wskazać na elementy wspólnie doświadczanej i podobnie rozumianej kulturowo-społecznej codzienności uwikłanej w cyfrowe media i łączące je sieci. Leksykalny eksperyment wywołał dyskursywne i materialne reakcje na różne sposoby. Najpierw został wirusowo zaimplementowany w lokalnej, lubelskiej przestrzeni medialnej i kulturalnej, stając się intrygującą niewiadomą dla dziennikarzy, odbiorców mediów i uczestników życia kulturalnego. Na swój sposób zrozumieli go i zareagowali nań zaproszeni do lubelskich rezydencji artyści i animatorzy, których prace i działania zaanektowały publiczne przestrzenie Lublina – poszerzoną i krytyczną dokumentację tych działań znajdzie czytelnik w ostatniej części książki w formie osobnego, dopełniającego całość modułu. Jednocześnie teoretycy medialnych zjawisk, niektórzy artyści i animatorzy potraktowali zaproponowany tag jako punkt wyjścia poszukiwań analitycznych, których pokłosie składa się na zawartość tego tomu. Dla części z nich mindware zabrzmiał obiecująco i świeżo, oferując eksplanacyjny potencjał do wykorzystania. Inni krytycznie odmówili mu pojęciowej precyzji i semantycznej zasadności. W efekcie, projektując i testując pole semantyczne nowego „pojęcia w budowie” (taki tytuł nadaliśmy poprzedzającej niniejszy tom wymianie zdań toczącej się na blogu www.mindwarepl.wordpress.com), podjęli się zadania prześwietlenia przez jego pryzmat zmian w sferze medialnej wrażliwości i refleksyjności wraz z wynikającymi z nich kompetencjami komunikacyjnymi i społecznymi. Mierzące się wprost z dyskursywnym potencjałem mindware wypowiedzi zdecydowaliśmy się uzupełnić o teksty, które sytuują te próby w szerszymkontekście. W odpowiedzi na mindware’owe zaproszenie swoje artykuły zgłosili także autorzy niezwiązani bezpośrednio z lubelskim projektem, tacy jak Peter Weibel, Peter Lunenfeld, Johan Söderberg, Geoff Cox czy Paweł Frelik. W rezultacie w strukturze tomu wypowiedzi odnoszące się bezpośrednio do tytułowej kategorii przeplatają się z tekstami, które sondują podobne techno-kulturtowe rewiry za pomocą odmiennych języków i perspektyw. Zebrane materiały poszły, ogólnie rzecz biorąc, w dwóch dopełniających się kierunkach. Pierwszy z nich widzi cyfrowość przez pryzmat funkcji symbolicznych i dyskursywnych, skupia się na semantyce pośredniczących w niej technologicznych form. Jest to kulturocentryczne spojrzenie na cywilizacyjne trajektorie cyfrowych maszyn. Perspektywa druga wychodzi poza istniejące paradygmaty kulturoznawczych analiz mediów i komunikacji. Postrzega cyfrowe zdarzenia medialne jako obszar taktylny, angażujący integralnie podmiot zdolny do poznawczego dystansu i imaginacji oraz napędzającą go bezbronną wobec zaawansowanych technologii cielesność. Z określonych w ten sposób wektorów analizy wyłania się dualna semantyka mindware. Z jednej strony to kulturowa wartość dodana technologii cyfrowych i sieci. Znaczenie jej jest związane z obecnymi w kulturze mitami, ideologiami, językami i relacjami, które regulują cyfrową zmianę. Wiąże się z medialną wrażliwością komunikacyjną i jej praktykowaniem w formie sztuki, w ramach dyskursu naukowego, wielu działań i strategii
9
politycznych, społecznych i kulturowych. Z drugiej strony mindware wskazuje na zbliżanie się cyfrowych mediów do antropicznego i biologicznego zarazem centrum zdarzeń komunikacyjnych – mózgu i cielesności. Cyfrowe maszyny sprzęgają się z naturalnym „oprzyrządowaniem” coraz ściślej zarówno w sensie materialnym, za pomocą realizowanych na poziomie neuronalnym połączeń i nowych perceptualnych reguł, jak i na zasadzie biotechnologicznego sprzężenia zwrotnego. Pojawia się ono wtedy, kiedy stwarzając maszyny, kopiujemy rozwiązania naturalne, ale i w relacji odwrotnej, tj. kiedy zaczynamy postrzegać i rozumieć siebie na kształt i podobieństwo maszyn i regulującego je kodu. Skonstruowane w ten sposób interpretacje wytyczają strukturę książki. W pierwszej części czytelnik znajdzie analizy świadomości i wyobraźni mediów i Sieci, ich afiliacje z dyskursami sztuki, nauki, działalności społecznej, a także studia ich kulturowego i społecznego usytuowania. W części drugiej autorzy skupiają się natomiast na rozważaniach dotyczących poszerzania definicji komunikacji, mediacji i interakcji w kontakcie z cyfrowymi mediami. Granica pomiędzy partiami ma charakter jedynie przybliżony, nie została oddana w postaci sztywno wydzielonych części. Tom przybrał także podwójny interfejs. Pierwszy z nich to klasyczna, drukowana książka, którą oferujemy czytelnikowi wraz z przypisanymi tej formule elementami, takimi jak: tradycyjna, zamknięta organizacja tekstu, pasywne przypisy i bibliografia, autorski układ. Drugim interfejsem publikacji jest jej wersja elektroniczna. Opracowaliśmy ją według kryteriów interaktywności, personalizacji i multimedialności w taki sposób, aby możliwe było nadanie jej indywidualnego kształtu, wynikającego z zainteresowań samego czytelnika. W obu przypadkach na linearny porządek tekstów nakładamy dodatkowe warstwy przygotowane na kształt cortazarowskich ścieżek prowadzących alternatywnie przez zasoby tekstu. Wytyczyliśmy je za pomocą czterech kluczy tematycznych, które nazwaliśmy ścieżkami teorii mindware, postmediacji, wokół interfejsów i sztuka mediów. Za sprawą tej alternatywnej nawigacji zachęcamy czytelnika do autorskiego zarządzania całością zgromadzonego materiału jak hiper- i tradycyjnie tekstualną bazą danych. Chcemy, by w oparciu o nasze propozycje rozplanowania struktury książki sporządził własne narracje, zadawał pytania których autorzy wprost bądź w ogóle nie zadają, grupował i kategoryzował uzyskane na nie odpowiedzi, oznaczał wybrane moduły i linkował je w dowolny sposób. Te różne stany skupienia to oferta dla wszystkich, którzy odnajdą w opisanej tu materii i nazywającym ją języku inspirację i zachętę do interakcji i poszukiwań kolejnych sensów i definicji mindware. W ten sposób wypuszczamy mindware’owy wirus w analogową i cyfrową przestrzeń zaciekawieni jego dalszym, otwartym na działania wszystkich, którzy się z nim spotkają, żywotem. Elektroniczna wersja publikacji, jak i wszystkie archiwa lubelskiego projektu, umieszczone zostały na stronie www.mindware.art.pl. Dziękuję współtwórcom projektu Mindware. Technologie dialogu, bez których ta publikacja nie mogłaby powstać: producentce Magdzie Kawie, kuratorom: Zbyszkowi Sobczukowi i Marcinowi Skrzypkowi oraz wydawcy Alicji Borzęckiej-Szajner. Piotr Celiński
10
Teorie mindware
Postmediacje
Sztuka mediów
Od mediów mechanicznych do mediów społecznych Peter Weibel
Artykuł jest przeredagowaną wersją tekstu Vergangene, zeitgenössische und zukünftige Medienkunst, pierwotnie opublikowany w katalogu REWIND/FAST FORWARD. Die Videosammlung - Neue Galerie Graz, red. G. Holler-Schuster, Ch. Steinle, Neue Galerie Graz am Landesmuseum Joanneum, Graz 2009, s. 22-35. Tłumaczenie: Wieńczysław Niemirowski
13
15
Techné – Epistemé Historyczne przesłanki powstania i promocji sztuki opartej na maszynach i przyrządach, określanej też jako techniczna sztuka medialna, nie należą do optymalnych. Epoki klasyczne pogardzały wręcz sztuką rzemieślniczą, techniczną. Jest to historyczne brzemię, ciążące również na medialnej sztuce współczesnej oraz jej recepcji. W etyce nikomachejskiej Arystoteles (384–322 p.n.e.), syn macedońskiego lekarza i nauczyciel Aleksandra Wielkiego, rozróżnił techné (praktyczne umiejętności, sztuka) i epistemé (poznanie naukowe, wiedza). Do różnych form wiedzy (epistemé) należą retoryka, arytmetyka, geometria, astronomia, dialektyka, gramatyka, teoria muzyki, a więc to, co nazywamy dziś nauką. Były one przeznaczone dla wspólnoty ludzi wolnych. Sztuka i umiejętności praktyczne (techné) były przeznaczone natomiast dla ludzi niewolnych, pracowników najemnych, rzemieślników (technites lub banausos). Arystoteles „puszcza wodze swej lekceważącej postawy wobec rzemiosła”. Rzemieślnik żyje w dużej mierze niczym niewolnik. Dlatego też nie ma statusu obywatela. Arystoteles nauczał, że synowie ludzi „wolnych” nie powinni oddawać się zbytnio czynnościom użytecznym, mogącym zniżyć ich do pozycji banausos, rzemiosło jest bowiem dla duszy i rozumu ludzi wolnych utrudnieniem w praktykowaniu cnoty. Sztuki rzemieślnicze (techné) przynoszą ciału złą kondycję i zabierają konieczny dla myślenia czas wolny. Rzeczy użyteczne winny być przedmiotem nauczania jedynie o tyle, o ile są podstawą czegoś wyższego. Dorosły, wolny człowiek winien słuchać muzyki jedynie dla przyjemności, sam nie powinien muzykować, gdyż własne wykonanie byłoby czymś rzemieślniczym (banauson) i niegodnym wolnego mężczyzny. Muszą więc istnieć ludzie, którzy jako pracownicy najemni lub jako niewolnicy będą w stanie wykonywać rzemiosło (względnie techné), lecz jedynie w służbie innym, by owym innym być pomocnym w korzystaniu z przyjemności lub w wykonywaniu czynności wyższych. Uprawianie sztuk technicznych jest więc równoważne z wykonywaniem służby niewolniczej. Dla lepszego zrozumienia owej hierarchii form wiedzy należy przypomnieć o tym, że Arystoteles nie był żadnym przyjacielem demokracji, lecz orędownikiem panowania klasowego. Dobrą, służącą interesowi społecznemu formą funkcjonowania państwa było dla niego panowanie jednostki (monarchia), panowanie nielicznych (arystokracja) i panowanie wielu (politea). Zwyrodnieniami wspomnianych ustrojów są: w stosunku do królestwa tyrania, w stosunku do arystokracji oligarchia, a w stosunku do politei demokracja. Tyrania bowiem jest jednowładztwem dla korzyści panującej jednostki, oligarchia rządzi dla korzyści bogaczy, a demokracja dla korzyści ubogich, żadna z nich jednak nie ma na względzie dobra ogółu (Polityka, Księga III, rozdział V/4)1.
Przez przemieszanie rządów rozsądnej większości oraz arystokracji Arystoteles próbował zneutralizować niebezpieczeństwa czyhające ze strony obydwu krańcowości (demokracji i oligarchii). Arystotelesowska teoria klas implikowała późniejszą organizację zmysłów i tego, co zmysłowe, podział form wiedzy. Oddzielenie wiedzy (epistemé) od sztuki (techné) odbijało podział na ludzi wolnych i niewolników. Arystoteles stworzył więc współmierność porządku estetycznego i społecznego. Hierarchia społeczeństwa klasowego służyła 1
Arystoteles, Polityka, przekł. i oprac. L. Piotrowicz, Wrocław 2005, s. 115.
15
jako podstawa hierarchii sztuk i nauk. Nauki (epistemé), od arytmetyki po retorykę, były przeznaczone dla ludzi wolnych. Sztuki (techné), od architektury przez agrykulturę po malarstwo i rzeźbiarstwo, dla ludzi bez tego statusu. Sztuki są więc odbiciem społeczeństwa klasowego. Artes liberales – Artes mechanicae Rzymianie odwołali się do poczynionego przez Arystotelesa rozróżnienia, dokonali jednak przy tym istotnego przesunięcia. Nie robili już różnicy pomiędzy formami wiedzy a umiejętności, pomiędzy poznaniem a znajomością rzeczy, pomiędzy ekspertem a ignorantem, lecz przenieśli arystotelesowskie rozróżnienie do samego pojęcia sztuka. Sztuką stało się wszystko. W miejsce rozróżnienia na epistemé i techné nastąpiło rozróżnienie na artes liberales i artes mechanicae. Formy wiedzy, od arytmetyki po retorykę, zamieniły się w artes liberales; formy umiejętności, od architektury po agrykulturę, w artes mechanicae. Współmierność porządku estetycznego i społecznego nadal tworzyła podstawę hierarchii sztuk oraz rzemieślniczych zdolności. Nauki czasów obecnych funkcjonowały w tamtejszej dobie jako artes liberales. Sztuki w rozumieniu dzisiejszym nie wykraczały poza horyzont techné. Studiowanie artes liberales stanowiło u Rzymian treść nienastawionego na zysk wyższego wykształcenia, przystającego wolnemu obywatelowi. Dlatego mówi się o „sztukach wyzwolonych” dla wolnego obywatela. Siedem sztuk wyzwolonych (gramatyka, dialektyka, retoryka, arytmetyka, geometria, teoria muzyki, astronomia) było również przedmiotem nauczania w szkołach klasztornych, a od XIII wieku na uniwersytetach. Artes mechanicae (architektura, malarstwo, rzeźbiarstwo, agrykultura) ciągle były szkalowane jako banausoi technai lub artes vulgares et sordidae, będące domeną ludzi niewolnych, pracowników najemnych i niewolników. Sztuka w rozumieniu dzisiejszym nadal była służbą niewolniczą, pracą najemną, produktem zleceniodawców z kręgów kościoła lub kręgów szlacheckich. Wszystkie sztuki w rozumieniu dzisiejszym były sztukami mechanicznymi, technicznymi, sztuką użytkową. Rywalizacja sztuk Malarstwo, architektura i rzeźbiarstwo awansowały do miana sztuk wyzwolonych dopiero w toku awansu mieszczaństwa. Do emancypacji sztuk plastycznych, ówczesnych artes mechanicae, przyczyniły się około roku 1500 w równym stopniu architektura, rzeźba oraz malarstwo. Pojęcie paragone oznacza w historii sztuki „rywalizację sztuk”, do jakiej doszło w czasach nowożytnych. Wkrótce rozpoczęła się dyskusja o hierarchii sztuk, w której toku doszło do bezpośredniej rywalizacji malarstwa i rzeźbiarstwa. Zainicjował ją Leonardo da Vinci, który w swoich pismach opowiedział się jednoznacznie za malarstwem. Podczas gdy malarstwo po stronie swoich zalet wymieniało właściwości iluzjonistyczne, inwencję i możliwości naśladowania natury przez środki perspektywiczne i kolorystyczne, rzeźbiarstwo odwoływało się do swej wielowymiarowości, jakości dotykowych oraz materialności. Twierdzono, że malarstwo jest czystym pozorem, natomiast rzeźbiarstwo miało uosabiać byt. Precyzyjnie sformułował to rzeźbiarz Turbolo w liście do Benedetta Varchi: „A me mi pare la scultura sia la casa proprio, la pittura sia la bugia” (Wydaje mi się, że rzeźba jest rzeczywistym bytem, malarstwo – kłamstwem). Malarstwo zaś pokpiwało z rzeźbiarstwa jako fachu rzemieślniczego, kojarzącego się z kurzem, niemogącego wspiąć się na intelektualne wyżyny malarstwa. Malarze lżyli rzeźbiarzy, sięgając po stary argument przypisywania ich fachowi charakteru rzemiosła.
17 16
Za artes liberales (niegdyś były to nauki) uważa się obecnie malarstwo, rzeźbiarstwo, architekturę, miejsce byłych artes mechanicae zajęły w dobie dzisiejszej sztuka stosowana i sztuka mediów. Sztuki wolnych obywateli składały się niegdyś z teorii i nauki. Sztuki „mechaniczne”, rzemieślnicze były natomiast sztukami wykonywanymi przez niewolnych pracowników najemnych i niewolników. Ów estetyczny podział, odpowiadający greckiemu podziałowi na klasy społeczne, znajduje dziś swe odbicie w ocenie „sztuk” i „sztuk medialnych”. Znaczenie sztuki medialnej umniejsza się, przypisując jej cechę reproduktywności i sprzężenie z aparaturą techniczną, prymat przyznaje się natomiast malarstwu jako dziedzinie produktywnej. Niskim notowaniem cieszyło się niegdyś rzemiosło, wytwórczość, podobną rangę ma dziś to, co automatyczne, maszynowe. Miejsce sztuk mechanicznych zajęły media. Za pozorną autonomią artefaktu, wytworu sztuki będącego dziełem człowieka i maszyny, nie dostrzega się obecnie dokonania umysłowego. Różnica pomiędzy artes liberales (niegdyś epistemé) a artes mechanicae (niegdyś techné) opierała się w zasadzie na założeniu, że te pierwsze są czynnością umysłową, a te drugie fizyczną. Dziś natomiast podział jest następujący: intuicja i ręka artysty versus cyfrowy rozum i mechaniczna produkcja. Miejsce pogardy dla tego, co rzemieślnicze, zajęła pogarda tego, co maszynowe i medialne. Malarstwu jako produkcji wychodzącej z ludzkiej ręki, sterowanej artystyczną intuicją, przyznaje się pierwszeństwo przed dziełami sztuki, produkowanymi lub reprodukowanymi technicznie. Oryginalne dzieła malarskie przeszły na służbę klas wyższych. Klasy niższe są zbywane reprodukcjami fotograficznymi, dziełami produkowanymi seryjnie, kartami pocztowymi itd. z kopiami słynnych dzieł. Odrzucenie, jakiego doświadczały artes mechanicae, stało się dziś udziałem dzieł sztuki wytwarzanych za pomocą mediów elektronicznych. Gdy sięgnie się po współczesne książki, traktujące o historii sztuki, nadal jeszcze dostrzeże się lekceważenie sztuk medialnych, które do dziś nie mogą w pełni pozbyć się piętna niegdysiejszej profesji ludzi niewolnych i przynależenia do sfery sztuk mechanicznych. Ponieważ podział estetyczny odbijał podział na klasy społeczne, zniesienie hierarchii estetycznej mogło dojść do skutku jedynie w kontekście zniesienia hierarchii klasowej. Prowadzące do autonomii sztuki (sztuka bez zamówienia), następujące w XIX wieku uwolnienie sztuk od zleceniodawców oraz cała retoryka wolnościowa moderny (od uwolnionego koloru aż po uwolnioną powierzchnię) da się zrozumieć jedynie w kontekście walk klasowych XIX wieku. Uwolnienie tzw. warstw niższych można odczytać w samych procesach transformacji sztuk. Swą emancypację warstwy niższe zawdzięczają jednak sztukom w stopniu mniejszym niż naukom przyrodniczym oraz duchowi oświecenia, które uwolnić chciały ludzi z okowów socjalnej przemocy, z kajdan niesamodzielności, wykutych przez szlachtę i kościół, z poddaństwa wobec sił przyrody. Nauki przyrodnicze sprzymierzyły się ze sztukami mechanicznymi (techné), by za pomocą instrumentów, narzędzi, laboratoriów, rzemieślniczych zdolności, wiedzy i ekspertyz odkryć prawa przyrody i przyspieszyć poznawanie mechanizmów opanowywania owej przyrody. Po części sztuki opierały się oświeceniu (np. w romantyzmie), po części sprzymierzały się z nim, aby polepszyć przez to condition humaine. Podobną sytuację przeżywa się i dziś. Rozszerzenie i przyspieszenie rozwoju sfer wiedzy nastąpić winno przez ponowne sprzymierzenie sztuk medialnych z naukami przyrodniczymi. Na tej drodze, dzięki pomocy nowych technologii i procesów, będą mogły zostać stworzone platformy i praktyki procesów demokratycznych.
17
Nauki zawarte w Encyklopedii W latach 1751–1780 Denis Diderot oraz Jean-Baptiste le Rond d’Alembert wydali 35 tomów Encyclopédie, ou Dictionnaire raisonné des sciences, des arts et des métiers, co było najbardziej znaczącym publicystycznym przedsięwzięciem francuskiego oświecenia, „wstępnym rozdziałem rewolucji” (Robespierre). Już po ukazaniu się siódmego tomu Encyklopedia została oficjalnie wyklęta przez papieża Klemensa XIII. Tworzący awangardę francuskiego oświecenia Voltaire, Rousseau, Concordet i Montesquieu przez swe artykuły sprawili, że ostrze Encyklopedii kierowało się przeciw klerykalizmowi i absolutyzmowi, a ona sama mogła stanowić rdzeń ideowy przyszłej rewolucji demokratycznej. W roku 1751, w październiku, d’Alembert (1717–1783) napisał Discours préliminaire de l’Encyclopédie, korzystając przy tym ze spuścizny ideowej, jaką pozostawili Bacon, Newton i Locke. Matematyka i fizyka były dla niego bazą wszelkiej wiedzy, także wiedzy o społeczeństwie. Podstawą tworzenia modeli funkcjonowania wspólnoty nie były ani religia, ani organizmy biologiczne – budując modele sfery polityki i sztuki d’Alembert sięgał po zdobycze rozumu oraz nauk przyrodniczych. Encyklopedia była przede wszystkim zasługą Diderota, który główny akcent położył na arts mécaniciens, rzemiosło oraz technologię jako langue des arts. Większą część Encyklopedii zajmują napisane przez Diderota teksty o sztukach mechanicznych. Pisarz zmierzał do stworzenia logicznego systemu sztuk mechanicznych i żądał integracji sztuk mechanicznych ze sztukami wyzwolonymi oraz naukami. Pragnieniem Diderota było zniesienie podziału na artes liberales i artes mechanicae jako zjawiska związanego ze społeczeństwem klasowym oraz doprowadzenie do zmian społecznych przez emancypację sztuk mechanicznych. Przez ulepszenie sztuk chciał polepszyć status społeczny obywateli. Zdaniem Diderota tworzenie różnicy pomiędzy sztukami mechanicznymi a wyzwolonymi przyniosło degradację człowieka. Opowiadał się on za rozszerzeniem kręgu uczestników, za szeroką dystrybucją wiedzy oraz za rozwojem narzędzi i maszyn, modeli i instrumentów w interesie postępu. Zmiany i polepszenie życia społecznego obiecywał sobie przede wszystkim po szerszym krzewieniu znajomości sztuk mechanicznych. Liczył na to, że technologia okaże się pomocna przy budowie nowej struktury społecznej. Istotnego wkładu w powstanie wolnego społeczeństwa nie oczekiwał więc od malarstwa i rzeźbiarstwa, lecz od sztuk mechanicznych. Zakładał, że znajomość sztuk mechanicznych doprowadzi do powstania racjonalnego i sprawiedliwego społeczeństwa, tak jak obiecujemy to sobie w dobie dzisiejszej po sztukach i technologiach medialnych, np. Internecie. Eksperymentalna polityka i eksperymentalna sztuka medialna winny się wzajemnie wspierać. U Diderota i w programie oświecenia można odkryć zainteresowanie integracją oddzielonych od siebie reprezentacyjnych pól nauki, sztuki (sztuki mechaniczne) i polityki. Diderot oraz współcześni myśliciele uznawali sztuki mechaniczne, technikę i naukę za bazę oświeconej polityki, będącej drogą do wyemancypowanego demokratycznego społeczeństwa. Emancypacja sztuk mechanicznych stanowiła warunek do emancypacji ludzi niewolnych. Równouprawnienie materiałów i mediów W latach 20. XX w. powstała (szczególnie w Rosji wokół Władimira Tatlina) „kultura materiałów”. Aplikację z części drewnianych i papierowych, znaną z kubistycznych obrazów Braque’a i Picassa, Tatlin połączył z materiałową tradycją rosyjskiej ikony. Także Kurt Schwitters i Bauhaus rozszerzyli malarstwo nie tylko o język form abstrakcji, lecz także o nowe materiały. W manifestach o nowej sztuce materiałowej (echo artes machanicae) pojawiły się stosowne żądania
19 18
równości wszystkich materiałów. Dlatego najznamienitsi przedstawiciele awangardy lat 20. XX w. pracowali jednocześnie jako malarze, rzeźbiarze, fotografowie, filmowcy, wzornicy, architekci. Rozwinęli oni język wizualny, który można było stosować uniwersalnie, na płaszczyźnie i w przestrzeni. Przygotowali tym samym grunt pod zakończenie rywalizacji sztuk, co dało początek równouprawnieniu wszystkich artystycznych gatunków i mediów. W pierwszej fazie rozwoju sztuki medialnej chodziło więc o to, aby media, fotografia i film, uzyskały uznanie artystyczne równe temu, jakim cieszyły się media tradycyjne – malarstwo i rzeźba. W fazie tej pracowano w szczególności nad stworzeniem specyficznych osobnych światów poszczególnych mediów. Uznanie za artystyczne medium wywalczyła z pewnością – 150 lat po jej wynalezieniu – fotografia. Podobny wynik osiągnęły w tej rywalizacji sztuk również nowe media – wideo i sztuka cyfrowa: na wielkich międzynarodowych wystawach dzieła medialne wywołują zainteresowanie większe niż kiedykolwiek w przeszłości. Przynajmniej prowizorycznie można więc mówić o równouprawnieniu wszystkich mediów i gatunków. Poniżej pokrótce naszkicowano niektóre fazy rozwoju sztuki medialnej w kontekście rozwoju sztuki nowoczesnej. Materiał i maszyna w modernie Rozwój sztuki nowoczesnej jest nierozerwalnie związany z ideą osobnego świata materiału. Wpierw, na początku XIX wieku, odkryto własną wartość i autonomię koloru. Uwolnienie koloru od jego reprezentatywnej funkcji, tzn. koloru lokalnego, oddającego zgodnie z rzeczywistością kolor świata przedmiotowego, doprowadziło do uwolnienia formy od jej zobowiązania do oddawania rzeczywistości oraz do powstania koloru absolutnego. Autonomiczny kolor i autonomiczna forma doprowadziły do wyparcia przedmiotu z malarstwa i tym samym do abstrakcji. Po uznaniu własnej wartości formy i koloru oraz ich niezależności od świata przedmiotowego doszło do uznania własnej wartości światła, płaszczyzny obrazu, gestu itd. W przyszłości wystarczać miało przedstawienie samego koloru, prezentacja koloru jako koloru aż po monochromię (Rodczenko, 1921); wystarczyła prezentacja samego płótna (Fontana); wystarczyło odtworzenie oraz ślady gestu (informel). Ów łańcuch wartości własnych oraz deklaracji niezależności od koloru, formy, płaszczyzny, gestu złożył się na podstawę zwrotu sztuki ku jej autonomii. Świat maszyn rewolucji przemysłowej zademonstrował autonomiczny status aparatów, zanim podobne zjawisko nastąpiło w sztuce. Nie tylko ludzie, lecz także maszyny potrafiły działać i być relatywnie autonomiczne. Automat oznacza wszak samodzielną maszynę (od greckiego auton – samodzielny). Już aparat fotograficzny z roku 1839 był pierwszą samodzielną maszyną, wytwarzającą obrazy. Sztuka maszynowa, względnie sztuka wspierana przez maszyny, była więc powiązana od samego początku z pojęciem autonomia, wnosząc to pojęcie do dyskursu o sztuce. Także typowe dla moderny bazowanie na metodzie naukowej, „która współgra z naszą epoką” (Pissarro, 1887), przy definiowaniu sztuki było efektem wpływu rewolucji przemysłowej. Obraz techniczny powstał, jak wiadomo, jako produkt wspieranej maszynowo fotografii (1839). Mniej więcej w tej samej epoce nastąpiło wspierane maszynowo przekazywanie obrazu na długi dystans (telegrafia) na podstawie zasady skanowania, rozłożenia dwuwymiarowego obrazu w linearne następstwo punktów w czasie. Oddzielenie posłańca od niesionej przez niego wieści, do czego doszło w epoce elektromagnetycznej (1873 Maxwell, 1887 Hertz, 1896 Marconi), umożliwiające bezcielesne i bezmaterialne podróże znaków w kulturze
19
telematycznej, doprowadziło do zniknięcia przestrzeni i czasu. Telefon, telekopia, „elektroniczny teleskop” (system TV P. Nipkowa, 1884) są systemami przenoszenia dźwięku oraz statycznego i ruchomego obrazu. Po wspieranym maszynowo wytwarzaniu obrazu nastąpiło więc wspierane maszynowo przenoszenie i odbiór obrazu. Po zniknięciu rzeczywistości (przestrzeń i czas w swej historycznej formie, tzn. ciałocentryczne doświadczenie przestrzeni i czasu) nastąpiła symulacja rzeczywistości (maszynocentryczne doświadczenie przestrzeni i czasu). Po fotograficznej analizie ruchu nastąpiła kinematograficzna synteza ruchu. Poruszane maszynowo obrazy, film, iluzja ruchomego obrazu, tworzą trzeci etap obrazów technicznych. Odkrycie elektronu i lampy oscyloskopowej (1897) stworzyło podstawy do zastąpienia mechanicznego wytwarzania i przenoszenia obrazów przez system elektroniczny. Magnetyczna rejestracja sygnałów obrazowych (w miejsce sygnałów dźwiękowych jak dotychczas) przez magnetowid (1951) doprowadziła przez zmiksowanie magazynowania i transmisji obrazu (film i telewizja) do powstania nowego medium: wideo. Czwarty etap zwiększył możliwość (maszynowej) manipulacji obrazu. Piąty etap, w którym pojawił się obraz cyfrowy, wytworzony w pełni przez maszynę, przewidywalny obraz komputerowy, łączy w sobie nie tylko właściwości wszystkich czterech poprzednich etapów funkcjonowania obrazów technicznych, lecz wykazuje również fundamentalnie nowe właściwości: wirtualność, wiabilność, zmienność i interaktywność. Wirtualność zapisu informacji umożliwia zmienność treści obrazów w czasie rzeczywistym. Obraz staje się dynamicznym, zmienialnym w każdej chwili systemem zmiennych. Dzięki swej ogromnej prędkości komputery mogą symulować nie tylko sztuczne rzeczywistości w czasie rzeczywistym i emulować nowe światy, lecz także rozmywać granicę pomiędzy rzeczywistością a symulacją. Owa graniczna przestrzeń, „prawie rzeczywistość” teleobecności i teleegzystencji nosi miano wirtualnej rzeczywistości (cyberspace). Na ową wirtualną przestrzeń obserwator ma wpływ i może po niej kroczyć, zmieniając i deformując ją. Obserwator porusza obraz, a obraz reaguje na jego ruchy (interaktywność). Zmienne zachowanie się obrazu prowadzi do wiabilności systemu obrazów, do pokrewnego życiu (wiabilnego) zachowania obrazu. Systemy i organizmy, reagujące na wprowadzanie danych z otoczenia, nazywamy systemami żyjącymi. Interaktywnie ożywiony obraz jest być może najradykalniejszą transformacją europejskiego pojęcia obraz. Szóstym etapem jest globalna sieć komputerowa, dostępna przez telefon i modem, umożliwiająca wymianę informacji akustycznej i wizualnej w skali globalnej. Telematyczna zdyslokowana komunikacja w czasie rzeczywistym umożliwia nie tylko nowe formy pracy (teleworking) w mieście cyfrowym (Telepolis, Florian Rötzer), lecz także nowe formy artystycznej interakcji, trudne dziś do wyobrażenia. Przez techniczne pojęcie obraz w zasadniczy sposób zostało zmienione pojęcie wizualność, a w następstwie tego także pojęcie sztuka. Techniczne media jako media sztuki są z jednej strony punktem wyjścia i punktem końcowym dialektyki autoreferencji i autonomii moderny, lecz z powodu ich maszynowej kontekstualności oznaczają zarazem jej kasację. Artystyczne rozumienie obrazu, kojarzone z farbą olejną i płótnem, zostało poszerzone o nowe, przenoszące obraz media. Obraz i idea obrazu przeniosły się z płótna na ekran. W modernie rozszerzył się tym samym horyzont obrazu, od sztuk plastycznych ku kulturze wizualnej. Kultura wizualna obejmuje obrazy malarskie, lecz także obrazy wytworzone przez maszyny i media, od fotografii po film, od telewizji po wideo, od komputera po Internet.
21 20
Antyiluzja: sztuka medialna w latach 60. i 70. XX wieku Prymat osobnego świata materiału skutkował z jednej strony owego materiału analizą, a z drugiej – w sztuce bazującej na maszynach i mediach – analizą osobnego świata aparatów. Obok samorefleksyjnego malarstwa i rzeźby pojawiła się samorefleksyjna sztuka medialna (fotografia, film, wideo). W Whitney Museum of American Art zorganizowano w 1969 r. wystawę pod znamiennym tytułem „Anti-Illusion: Procedures/Materials“. Autorami wystawianych prac byli Andre, Asher, Benglis, Morris, Nauman, Reich, Ryman, Serra, Snow, Sonnier, Tuttle i inni. Wystawa ta była syntezą ważnej analitycznej, samoreferencyjnej tendencji neoawangardy, przede wszystkim jednak awangardy medialnej (fotografia, film i wideo). Pod naciskiem samorefleksji w sztuce materiałowej i medialnej w latach 60. XX w. doszło do zmiany paradygmatu od iluzji ku antyiluzji. Wszystkie zdobycze awangardy lat 50. i 60. XX w. miały odniesienie do rozwoju charakteru materiałowego, cech danego medium i jego dyspozytywów względnie aparatur. Osobny świat materiału stworzył kanon, wypływały z niego dyrektywy dla rozwoju procesów. Procesy materiałowe (niezależnie od tego, czy był to ołów, filc, tłuszcz, farba olejna, woda, lód, powietrze, ogień, ziemia itp.) tworzyły w przypadku obrazów lub rzeźb punkt wyjścia ich kształtu lub bezkształtowości. Owe procesy zastępowały dzieło sztuki jako produkt albo przynajmniej warunkowały powstanie owego produktu. Możliwości i opcje materiału sondowali artyści różnych dziedzin sztuki (muzyka awangardowa, fluxus, happening, sztuka akcyjna, body art, arte povera, land art, process art, sztuka konceptualna). Artyści swoje efemeryczne dzieła tworzyli, sięgając po fortepian, światło, farbę olejną, tekst itd. Materiałowa obsesja szła w parze z odrzuceniem odwzorowywania i reprezentacji, i w ogólności była nacechowana gestem oświecenia i antyiluzji. Uwarunkowania i materialność filmu znalazły szczególne uwzględnienie w filmie awangardowym. W szczególności dotyczyło to warunków odbioru, projekcji, uwarunkowań sali kinowej, celuloidu itd. Rozwinęły się z tego „structural film”, „material film” i „expanded cinema” (Hollis Frampton, Tony Conrad, Paul Sharits, Steina i Woody Vasulka, Birgit i Wilhelm Hein, Michael Snow, Peter Gidal, Ernst Schmidt jr, Peter Weibel itd.). Film awangardowy i sztuka medialna były w pewnym stopniu ostrzem oszczepu owej awangardy antyiluzji, jeszcze zanim zaistniała ona w klasycznych formach sztuki: malarstwie i rzeźbie. W latach 60. XX w. powstał przedział pomiędzy epoką i praktyką iluzji, sztuki moderny a epoką i praktyką antyiluzji, moderny właściwej. W świadomości publiczności sztuka antyiluzji zakończyła się w latach 70. XX w., gdyż lata 80. XX w. były opanowane przez malarstwo iluzji. Pod naciskiem środków masowego przekazu, które stały się centralnym miejscem wytwarzania iluzji, awangarda zaczęła tym usilniej faworyzować destrukcję, dekonstrukcję i antyiluzję, wyjście z obrazu. Wraz z nawrotem ku malarstwu figuratywnemu i ekspresyjnemu nastąpił powrót iluzji do królestwa sztuki. Zostało to w sposób oczywisty, choć zadziwiający, nagrodzone. Mass media nie szczędziły aplauzów, poświęcając temu fenomenowi aż nader dużo uwagi. Media bulwarowe i ilustrowane dziękowały sztuce za to, że w teatrze iluzji nie były już jedynym graczem, że graczami stali się na tej scenie także artyści. Wulgarne mass media szczególną wdzięczność okazywały artystom niedysponującym własną inwencją, którzy przy (maszynowej) produkcji obrazów czerpali ze środków masowego przekazu, przyswajając sobie od nich (jak np. Andy Warhol) wulgarne obrazy. Obraz z gazety codziennej, mającej nader krótki żywot, był przenoszony do malarstwa, medium nieśmiertelnego, co podnosiło mass media do rangi mediów artystycznych. W ramach wdzięczności środki
21
masowego przekazu wyniosły owych artystów do rangi najważniejszych i najlepszych. Do siły mass mediów przyłączyły się także muzea. Rozwój sztuki XXwiecznej da się więc ogarnąć nie tylko modelem binarnych opozycji figuratywny i abstrakcyjny, materialny i niematerialny, reprezentatywny i niereprezentatywny, lecz również binarną opozycją iluzja – antyiluzja, przy czym awangarda zdefiniowała siebie jako antyiluzyjną. Samorefleksyjna, analityczna, krytyczna wobec mediów (zarówno medium własnego, jak i mass mediów) była przede wszystkim sztuka medialna lat 60. i 70. XX w. Manifestowała ona także krytyczne nastawienie do sztuki oraz do procesów społecznych. Aluzja i scenariusz: sztuka medialna w latach 90. XX wieku Gorzkie doświadczenia, jakich doznała sztuka medialna w latach 60. i 70. XX w. (film awangardowy i sztuka wideo), wpłynęły w istotny sposób na powstanie mentalności, przenikniętej antyiluzyjnością i krytyką społeczną. Młoda generacja artystów medialnych, działających w latach 90. XX w., wyciągnęła wnioski z faktu, że przez nawrót sztuki malarskiej ku iluzji sztuka medialna została odsunięta na bok, zmarginalizowana, a po części wręcz wyrugowana. Generacja ta nie odwoływała się do antyiluzyjnej tradycji awangardy medialnej, gdyż dopatrywała się w tym przyczyn jej porażki. Odniesieniem stał się główny nurt przemysłu iluzyjnego, na przykład hollywoodzkie filmy czy klipy wideo. Artyści przyswajali je, względnie poddawali dekonstrukcji, sięgając przy tym po metody spowolnienia, przyspieszenia, montażu i techniki dźwiękowej, przejęte od awangardy medialnej lat 60. i 70. XX w. Jako reprezentantów tych tendencji wymienić można Pipilotti Ristego i Douglasa Gordona. Zwrot w stronę iluzji był właściwą przyczyną pojawienia się w sztuce medialnej lat 90. XX w. tendencji narracyjnych, triumfu oka, przechodzącego na służbę narracji. Czerpanie z dorobku awangardy medialnej i sięganie po formy stosowane w masowym przekazie przez przemysł rozrywkowy (od Hollywood po MTV) był tak częsty i tak różnorodny, że nie dawało to podstaw ku temu, by jednoznacznie umiejscawiać opisywaną tu sztukę medialną w królestwa iluzji. Właśnie przez znane z wizualnych mass mediów, filmu i telewizji (od dramatu psychologicznego po talk-show), przemieszanie praktyk narracji i iluzji oraz praktyk antyiluzji i antynarracji w najlepszych przypadkach (przykładem są tu Gabriel Orozco i Anri Sala) dochodziło do powstania nowej praktyki, którą określono mianem aluzji. Generacja medialna lat 90. XX w. wychodziła z założenia, że każdy obserwator magazynuje w swojej głowie bibliotekę wizualnych doświadczeń, zasilaną z mass mediów, od filmu po plakat reklamowy. Powstające prace odnosiły się do owego wizualnego uwarunkowania w sposób bezpośredni lub pośredni. W dziełach tych nie było konieczności wymieniania nazwisk, gdyż obserwatorzy wiedzieli, o kogo chodzi. Wystarczyło skąpe zasygnalizowanie toposów, miejsc, tematów, a obserwator natychmiast wiedział, o czym była mowa. Nawet niewyraźne, symboliczne, niepełne lub ukryte odniesienia wystarczyły, aby nadać obrazom znaczenie i sens. Pomimo braku wyraźnych akcentów treściowych historia była dla obserwatora zrozumiała. Takim uniwersum wielorakich i wielorako kodowanych odniesień jest słynna postmoderna, od architektury po muzykę, od sztuki po film. Pulp Fiction (1994) Quentina Tarantino jest dobitnym przykładem owych licznych odniesień do wizualnych doświadczeń kinomana. Urok owych odniesień wynika z tego, że obserwator podobnie jak autor poruszają się we wspólnym zbiorze supozycji. Kluczowym dla estetyki aluzji jest słowo supposé. Przyjmuje się i zakłada, że obserwator dysponuje znajomością tego czy owego.
23 22
Estetyka zakładająca istnienie pewnej wiedzy staje się centralnym dogmatem całej kultury wizualnej. W postmodernistycznym uniwersum aluzji, w odniesieniu do obserwatora, przyjmuje się, że zna wszystkie obrazy, a urok jego reakcji wynika z relacji do tych obrazów, ze świadomego rozczarowania oczekiwań, ze świadomej paralelności i zgodności lub też ze świadomego opuszczenia i elipsy (patrz film L’Ellipse, 1998, reż. Pierre Huyghe). Owa aluzyjna metoda pozwala na bezpieczne ominięcie Scylli i Charybdy, iluzji i antyiluzji, narracji i antynarracji. Autor może opowiadać, lecz metodami aluzji, nie wymieniając nazwisk, używając pośrednich odniesień, nie odsłaniając tożsamości. Twórca może odwzorowywać figuracyjne i konkretne sceny, nadając im zarazem przez metodę aluzji pewien stopień abstrakcji i nierzeczywistości. Metody aluzji pozwalają więc artyście regulować według uznania stopień narracji i antynarracji, figuracji i abstrakcji. Możliwe jest zatem tworzenie dzieł będących upustem najwyższych skłonności do fantazjowania, przejawiających wybujałą chęć przenikania w gąszcz narracyjnej fabuły, w tkankę opowieści, ukazując zarazem, że dzieło takie ma swoją strukturę i kieruje się scenariuszem. Metody aluzji pozwalają na stworzenie dzieł o stanie świata. Dokonali tego na przykład Gillian Wearing, Sam Taylor-Wood, Aernout Mik, rozwijający jednocześnie antyiluzyjne i konceptualne tendencje awangardy medialnej. Przez wgląd we współczesną twórczość medialną można uzyskać także wgląd we współczesny świat. Nie jest to jednak wgląd, do jakiego przyzwyczaiły telewizja, prasa i film. W rękach współczesnych artystów medialnych mass media stają się zarówno częścią świata, jak i częścią oka i kamery, przez którą świat jest obserwowany. Aluzyjne oko opowiada więc o mediach i o świecie. Artyści opowiadają przez to o świecie w inny sposób, niż czynią to środki masowego przekazu. Oferują wyprowadzający odbiorcę z równowagi wgląd w globalną iluzję neoliberalizmu. Są to burzące duchową harmonię odbiorcy obrazy sztuki, której wizualny alfabet wykazuje wysoki stopień kompleksowości. Kompleksowość ta jest jądrem aluzji. W antyiluzji tkwiło niebezpieczeństwo prostoty i tautologii. Niebezpieczeństwa wynikające z aluzji to kompleksowość i manieryzm, lecz w żadnym wypadku nie jest to ucieczka przed światem bądź obserwatorem. Aluzyjna sztuka narracyjna w mediach wizualnych oznacza dalszy rozwój i niemalże odwrót od literackiej fabuły, od literackiej strukturyzacji opowiadania. Opowiadanie wizualne nie rozwija się tak jednotorowo jak opowiadanie werbalne, jest bardziej złożone. Opowieść aluzyjna kieruje się scenariuszem. Można by powiedzieć, że sztuka medialna od lat 90. XX w. aż po dziś dzień opiera się na scenariuszu (jest scripted), nie opiera się natomiast na fabule jakiejś historii. Historia taka jest czymś innym niż scenariusz. Mówiąc o scenariuszu, mówi się o regułach, względnie o kodach. Dziś ma się do czynienia nie tylko z ubraniami, lecz także z zaleceniami odnośnie do zachowania, nie tylko z przestarzałym kodeksem honorowym, lecz przede wszystkim z kodami artykulacji. Właściwą treść zdradza sposób sformułowania. Ważniejszy od treści jest sposób, w jaki coś się powie. Treścią jest właśnie to, jak się coś powie i jakimi słowami. Wiadomości są scripted, scripted jest zachowanie. Scripted są również kampanie reklamowe, np. wybory prezydenckie. Świat, szczególnie świat polityki, postępuje według scenariusza, według scenariusza aluzyjnego, gdzie nie wymienia się nazwisk, gdzie odniesienia są pośrednie, gdzie nie porusza się w sposób wyraźny rzeczy najważniejszych, gdzie informacje są ukryte, gdzie wiele rzeczy się zakłada. Scripted world w sztuce odpowiada scripted method. W każdym show moderator względnie showmaster mówi o teleprompterze. Każdy występ jest efektem castingu lub poprzedzającego treningu, wszystko jest wyćwiczone i zgodne ze scenariuszem. Przypuszczenia
23
o oddziaływaniu zachowania oraz przekazywanego przesłania kształtują i zastępują przesłanie i zachowanie. Estetyka domniemania ma w stosowny sposób zdemaskować świat domniemania. Istota aluzyjnej sztuki medialnej polega więc na tym, że artyście daje się możliwość rozpoznawalnego przedstawienia scenariusza świata przez scenariusz własny. W przypadku idealnym aluzyjne oko winno uczynić widocznym scenariusz świata. W przypadku idealnym aluzyjne opowiadanie winno udaremnić powstawanie oficjalnych opowiadań świata, mówiąc konkretniej: winno kreować prawdziwsze, głębsze opowieści o świecie. Czy jednak scripted art jest lepsza od scripted word? Czy może być lepsza? Kondycja postmedialna: scenariusz mediów Do istotnych sukcesów nowych mediów technicznych (wideo i komputer) oraz starych mediów technicznych (fotografia i film) należy nie tylko to, że zainicjowały nowe kierunki w sztuce i stworzyły nowe, bazujące na mediach środki wyrazu, lecz również fakt, że miały decydujący wpływ na media historyczne, takie jak malarstwo i rzeźba. Tym samym nowe media tworzyły nie tylko nowy konar na drzewie sztuki, lecz generalnie zmieniły to drzewo. Należy czynić rozróżnienie pomiędzy starymi mediami technicznymi (fotografia, film) i nowymi mediami technicznymi (wideo, komputer) z jednej strony, a sztukami – malarstwo i rzeźba – z drugiej strony. Media historyczne dotychczas w ogóle nie były uznawane za media, pod wpływem mediów technicznych same stały się jednak mediami, konkretnie: nietechnicznymi starymi mediami. Dzięki doświadczeniom z nowymi mediami zmienia się spojrzenie na stare media. Praktyki nowych mediów technicznych są skalą oceny praktyk starych mediów nietechnicznych. Można wręcz zaryzykować twierdzenie, że zasadniczy sukces nowych mediów nie polega na tym, że rozwinęły one nowe formy i nowe możliwości sztuki, lecz na tym, że stworzyły nowe podejście do starych mediów artystycznych i, przede wszystkim, zachowały je przy życiu, zmuszając jednak do gruntownych przemian. Gdy fotografia pojawiła się na przykład jako rywal w stwarzaniu obrazów, które odtwarzały rzeczywistość zgodnie z jej percepcją (realnie fotografia obiecywała wręcz bardziej prawdziwe odbicie rzeczywistości), malarstwo zrezygnowało po pięćdziesięcioletniej walce z przedstawiania świata przedmiotowego, koncentrując się na przedstawianiu osobnego świata malarstwa (płaszczyzna, forma, kolor i właściwości materiałów oraz technicznych dyspozytywów, od ramy po ekran), takiego, jakie triumfowało w pierwszej połowie XX. w., jak malarstwo abstrakcyjne. Ucieczka malarstwa ku abstrakcji była w pewnym sensie zwycięstwem fotografii jako lepszego medium odtwarzającego. Jeżeli malarstwo w drugim półwieczu (od pop artu do fotorealizmu) zwróciło się z powrotem ku obrazom świata przedmiotów, to doszło do tego w ścisłym powiązaniu z fotografią. Przed pojawieniem się fotografii malarstwo odnosiło się do świata przedmiotowego w sposób bezpośredni. Po odkryciu fotografii natomiast malarstwo przedmiotowe zaczęło odnosić się już tylko do takiego świata przedmiotowego, jakim przedstawiała go fotografia (a więc do fotografii przedmiotowej i figuratywnej). Nowe impulsy wzbogaciły malarstwo nie tylko przez doświadczenia w kontakcie z filmem i fotografią – dodatkową rolę spełniły przy tym cyfrowe programy do malowania (bezpośrednia praca z komputerem i ekranem), w sposób znamienny przydając malarstwu nowej komputerowo-derywatywnej abstrakcji. Pod wpływem mediów technicznych zmieniła się jednak nie tylko zachodnia sztuka malarska, lecz oczywiście również rzeźba. Dominujący wpływ algorytmów komputerowych i programów 3D daje się rozpoznać także w architekturze. Można zatem postawić pytanie, czy efekty oddziaływania nowych mediów na media stare (malarstwo, rzeźba, architektura) nie należy uznać za
25 24
ich większy sukces niż same wytworzone przez nie dzieła. Centralnym spiritus movens i centralną agendą sztuki XX w. są: kryzys reprezentacji, rozkład rozumienia dzieła i zniknięcie autora. Wszystkie te fenomeny wynikają z pojawienia się nowych mediów. Zjawiska, które zaistniały w XX w., takie jak radykalny zwrot w kulturze recepcji, eksplozja wizualności w sztuce i nauce czy pictorial turn są bez wyjątku skutkiem pojawienia się nowych mediów. Media doprowadziły do zmian we wszystkich dyscyplinach sztuki. Oddziaływanie mediów stało się uniwersalne. Paradygmat mediów obejmuje wszystkie sztuki. Środki masowego przekazu umożliwiają komputerowi, aby był maszyną uniwersalną (mianem takim obdarzył swój projekt komputera Alan Turing w tekście On Computable Numbers, 1937). Podobnie jak wielu naukowców marzy dziś o komputerowym modelu uniwersum, o doskonałym przedstawieniu uniwersum na podstawie cyfrowych obliczeń, tak również marzeniem wielu artystów jest komputerowy obraz sztuki, mogącej być całkowicie stworzoną przez obliczenia cyfrowe. Obok cyfrowego myślenia, którego oddziaływanie i sukcesy objęły już cały świat (bez maszyn liczących nie funkcjonowałyby bowiem żadne lotniska, fabryki, dworce, centra zakupowe, szpitale i in.), pojawiają się również cyfrowe sztuki, których celem jest również objęcie całego świata. Faktycznie oddziaływanie i sukcesy sztuk cyfrowych można obserwować dokładnie w tradycji, jaką już powyżej opisano: w postaci zmian wszystkich praktyk i form sztuki. Komputer może symulować nie tylko wszystkie formy i prawa uniwersum, nie tylko prawa przyrody, lecz także prawa formy, formy i prawa świata sztuki. Kreatywność jako taka jest programem opisowym, algorytmem. Czy to w literaturze, czy w architekturze, sztuce, muzyce dostrzega się coraz więcej wspomaganych komputerowo programów opisowych oraz instrukcji, zbiorów reguł i instrukcji postępowania z dziełem. Oddziaływanie mediów jest uniwersalne, więc wszelka sztuka jest obecnie sztuką postmedialną. Ponadto każda sztuka jest postmedialna nie tylko dlatego, że media są maszynami uniwersalnymi, lecz dlatego, że uniwersalna maszyna, jaką jest komputer, posiada zdolność symulowania wszystkich mediów. Postmedialne uwarunkowanie nie czyni jednak osobnych światów aparatów, immanentnych właściwości świata mediów, czymś zbędnym. Przeciwnie. Specyficzność (osobny charakter) świata mediów jest wyodrębniana coraz silniej. Dopiero w świecie postmedialnym zgoła totalną staje się dyspozycyjność specyficznych mediów (specyficznych właściwości mediów), od malarstwa po film. Komputer może na przykład symulować i dowolniej określać ziarnistość 16-milimetrowego filmu, niż jest to możliwe w przypadku pracy z realną taśmą filmową. Cyfrowa symulacja dźwięków fletu brzmi bardziej fletowo, niż gdyby instrumentu używano w rzeczywistości. Mruganie pisma wskutek postrzępienia perforacji taśmy filmowej komputer może zasymulować również lepiej, niż ma to miejsce w rzeczywistości, tak samo jak dźwięki preparowanego fortepianu. Dopiero postmedialny komputer, maszyna uniwersalna, pozwala praktycznie wyzyskać bogactwo osobliwych cech mediów. W praktyce każda sztuka kieruje się dziś scenariuszem mediów, przepisami. Rozumienie mediów obejmuje nie tylko stare i nowe media techniczne, od fotografii po komputer, lecz także stare media analogiczne (jak malarstwo czy rzeźbiarstwo), które zmieniły się pod naciskiem mediów technicznych. Moc zachowuje więc twierdzenie: „W praktyce każda sztuka kieruje się dziś scenariuszem mediów”. Sztuka mediów technicznych, sztuka wspomagana przez aparaty, stanowi jądro medialnego doświadczenia. Doświadczenie to stało się normą wszelkiego doświadczenia estetycznego. Niebyt mediów jest więc w sztuce dzisiejszej
25
niemożliwy. Nikt przed nimi nie zdoła uciec. Poza granicami doświadczenia medialnego nie powstanie dziś żadne dzieło malarskie ani żadna rzeźba. Poza granicami doświadczenia medialnego nie może się też rozwijać fotografia. Właśnie ci fotografowie, którzy w swej pracy stosują media cyfrowe i manipulują na ekranie zarejestrowanymi aparatem fotograficznym obrazami, powiększają je, dostarczają najbardziej przekonujących i zaskakujących obrazów fotograficznych, są najbardziej przekonującymi i najprawdziwszymi fotografami. Fotografia świata modeli i miniatur jest pewnego rodzaju physical modelling, cyfrową techniką symulacyjną. Postmedialny stan jest definiowany przez dwie fazy – równowartość i mieszanie mediów. W fazie pierwszej chodzi o to, by osiągnąć równowartość mediów, uzyskać dla nowych mediów (fotografia, film, wideo, sztuka cyfrowa) uznanie równe temu, jakim cieszyły się media tradycyjne – malarstwo i rzeźbiarstwo. W stadium tym, w ramach wszystkich mediów – malarstwa czy fotografii, zmierzano ku odsłonięciu właściwych danemu medium, specyficznych, osobnych światów. Malarstwo demonstrowało wartości właściwe dla farby, płynięcie, sączenie się, kapanie. Fotografia demonstrowała zgodną z rzeczywistością zdolność odwzorowywania. Film – swe możliwości narracyjne, wideo – krytyczną subwersję mass medium telewizji, sztuka cyfrowa – swą zdolność imaginacji w sztucznych wirtualnych światach. Faza ta, jeśli chodzi o wartość teoriopoznawczą i artystyczną, okazuje się, mniej czy bardziej, zakończona. W powszechnym odbiorze pełne uznanie uzyskała specyfika mediów, ukonstytuował się ogólnie uznawany status teorii krytycznej mediów. Z jednej strony wypracowano specyficzne, osobne światy danego medium, od malarstwa po wideo, z drugiej strony rozwinęła się równowartość mediów, ich artystyczna ekwiwalencja, równoważność. W nowej, drugiej fazie w sensie artystycznym i teoriopoznawczym chodzi o to, aby specyficzne dla mediów osobne światy zmiksować. Triumfuje wideo, np. narracyjną fantazją filmu, używając zamiast jednego ekranu różnorodnych projekcji, opowiadając zamiast z jednej perspektywy z wielu perspektyw jednocześnie. Dzięki nowym wielkim cyfrowym aparatom i programom graficznym fotografia wynajduje niewidziane dotąd, wirtualne sztuczne światy. Rzeźba może być fotografią lub taśmą wideo. Fotograficznie utrwalone zdarzenie może być rzeźbą, tekstem, obrazem. Zachowanie przedmiotu i człowieka, udokumentowane ideograficznie lub fotograficznie, może być rzeźbą. Rzeźbą może być też język. Językiem na ekranach LED może być malarstwo, książka i rzeźba. Wideo i instalacje komputerowe mogą być literaturą, architekturą lub rzeźbą. Fotografia i sztuka wideo, pierwotnie jedynie dwuwymiarowe, otrzymują wymiar przestrzenny i rzeźbiarski w instalacjach. W malarstwie stosuje się zarówno cyfrowe programy graficzne, jak i fotografię, do których się ono odnosi. Programy graficzne noszą miano paint programs, gdyż odnoszą się do malarstwa. W odniesieniu do dokumentalnej wierności wobec rzeczywistości coraz bardziej dominuje film, stając się dla krytyki mass mediów probierzem owej wierności. W chat-roomie Sieć dostarcza dialogi i teksty dla wszystkich mediów. Cały rezerwuar tekstów z Sieci może być zastosowany do samosterowania tekstów, do autogeneratywnego wytwarzania światów języka. Sieć może wytwarzać także autogeneratywne światy obrazów, a teksty Sieci mogą służyć jako ramy do scenariusza dla aktorów w filmach i dla spikerów w słuchowiskach lub dla poetów i amatorów. Program iPod umożliwia każdemu produkcję jego programu radiowego: podcasting zamiast broadcastingu. Videocasting umożliwia każdemu produkcję jego programu telewizyjnego. VOIP (Voice Over Internet Protocol) i IPTV (Internet
27 26
Protocol Television) dostarczają każdemu materiałów do instalacji tekstu, dźwięku i obrazu, w medium fotografia, w medium wideo, w medium komputer. Wyniki mogą być prezentowane jako filmy, utwory muzyczne lub architektura. IPhone (telefonia mobilna) jest również maszyną produkującą obraz i dźwięk. Jeżeli ktoś fotografuje kody QR (dwuwymiarowe kody kreskowe, Quick Response Code), ma bezpośredni dostęp do informacji (poruszające się obrazy i dźwięki) w Sieci. Fotografię, radio, film, telewizję i Internet jednoczy w sobie iPhone. Mieszanie mediów prowadzi do nadzwyczajnie wielkich innowacji w danych mediach oraz w sztuce. Malarstwo nie ożywia się więc samo przez się, lecz przez odniesienie do innych mediów. Wideo żyje z filmu, film żyje z literatury, rzeźba żyje z fotografii i wideo. Wszystkie gałęzie sztuki żyją z cyfrowych technicznych innowacji. Tajnym kodem wszystkich owych form sztuki jest binarny kod komputerów, tajną estetyką są algorytmiczne reguły i programy. Przedstawiony stan w dzisiejszej praktyce uprawiania sztuki winno się więc określić jako uwarunkowanie postmedialne, gdyż nie dominuje już pojedyncze medium, lecz media wpływają na siebie i warunkują się wzajemnie. Suma wszystkich mediów tworzy jedno medium uniwersalne, które zawiera samo siebie. Tak wygląda postmedialny stan świata medialnego w artystycznej praktyce doby obecnej. W efekcie końcowym prowadzi to do emancypacji obserwatora, zwiedzającego, użytkownika. W konfrontacji ze stanem postmedialnym można doświadczyć równouprawnienia laika, amatora, ignoranta, niewolnika, człowieka niewolnego. Za sprawą user innovation względnie consumer generated content przeżywa się narodziny sztuki demokratycznej, mogącej być udziałem każdego. Platformą owego udziału jest Sieć. W Sieci każdy może oferować swoje zdjęcia i wideo. Po raz pierwszy w historii istnieje „instytucja”, „przestrzeń”, „miejsce”, w którym laik za pomocą sztuki medialnej może oferować innym swoje dzieła. Dotychczas był cenzurowany, a w muzeach i innych państwowych oraz prywatnych kontrolowanych strefach była wystawiana jedynie uznawana sztuka. Obecnie jest otwarta droga dla prezentacji sztuki, której istniejące instytucje dotychczas nie chciały uznać. Rywalizacja sztuk dobiegła końca. Przeniosła się do płaszczyzny podstawowej, obejmując wzajemną relację teorii, nauki, praktyki, sztuki. Re-enactment i referencja: ekwiwalenty reprezentacji w sztuce współczesnej Sztuka współczesna wyróżnia się między innymi przez to, że po tym, jak odniesienie do świata przedmiotowego uszczupliło skalę zjawiska abstrakcji, nie wprowadziła ona żadnej nowej przedmiotowości lecz nowe referencje – referencje do innych estetycznych, naukowych, ekonomicznych lub politycznych systemów. Systemy te, służąc jako referencja, stają się systemami referencyjnymi. Systemy referencyjne zastępują więc rzeczywistość. W ostatnich czasach sztuka odnosi się do systemów referencyjnych i przez to sama staje się systemem referencyjnym. Ogólnie można twierdzić, że sztuka XX w. przeważnie znajduje się pod wpływem systemów referencyjnych, przede wszystkim fotografii. Odnosząc się do starego sporu o paradygmat, można więc w tym miejscu stwierdzić, że prymarnym źródłem referencji jest medium techniczne. Malarstwo, od Richtera po Warhola, odnosi się do fotografii, do fotografii z mass mediów lub do fotografii z książek o historii sztuki. Do fotografii odnosi się także rzeźba. Sztuka wideo doby obecnej, podobnie jak pop art lat 60. XX w., odnosi się do referencji popularnych – filmów hollywoodzkich, audycji informacyjnych, quiz show, reality-TV, muzyki wideo – osiągając przez
27
to duże sukcesy. Sztuki traktują siebie wzajem jako systemy referencyjne. W ten sposób wszystkie sztuki stają się mediami. Jest to największym sukcesem sztuki medialnej. Rzeczywistość jest postrzegana jedynie jako odbicie systemów referencyjnych, jako odbicie mediów i mediów sztuk. Przypadkiem szczególnym jest segment powtórnego przyswajania rzeczywistości przez odtworzenie (re-enactment). Wiadomo, że rzeczywiste zdarzenia, czyny i dane w tekstach i obrazach są przekazywane jako historia. Jeśli prezentuje się pozycję krytyczną i oświeceniową, to jest pewne, że przy owym przenoszeniu zdarzenia w reprezentację (rzeczywistości w reprezentację) utracie ulega wiele prawdy. Historia jest opowieścią. Historia jest masą wielu, niekiedy przeczących sobie opowieści, którym kierunek nadają zainteresowania opowiadającego. Historia jest mitem, fikcją, iluzją, symulacją, konstruktem, kłamstwem. Jeśli więc przenosi się do współczesności obrazy historii, utrwalone w fotografiach i filmach historyczne legendy, to przedstawia się tym samym kłamstwa reprezentacji jako prawdy rzeczywistości. Przez przyswojenie w formie zdarzeń i ponowne przeniesienie do świata naturalnych zmysłów medialna fikcja staje się zmysłową rzeczywistością i autentycznością. Przekazywane treści, z ich wszelkimi ułomnościami, stają się przez odtworzenie prawdą bezpośrednią. Współczesna sztuka medialna wierzy, że z kompleksowego świata uciec może do prostego świata narządów zmysłów. Odtwarzając teatr jako rzeczywistość (zamiast demaskować teatr jako rzeczywistość), przedstawia ona symulację jako rzeczywistość, pozostając jednak w rzeczywistości zakładnikiem symulacji, świata mediów, nie zdając sobie jednak z tego sprawy. Reality-TV ma swoje uzupełnienie – reality-sztukę. User art: przedmiot, obsługa, instrukcja obsługi Na początku XX w. sztuka moderny na nowo zdefiniowała referencję do rzeczywistości, względnie reprezentację rzeczywistości. Malarstwo przecięło swoje związki z rzeczywistością świata przedmiotowego: stało się nieprzedmiotowe, abstrakcyjne (Kazimierz Malewicz). A z drugiej strony wyparty z obrazu przedmiot został ponownie wprowadzony do sztuki jako przedmiot realny. W malarstwie była zakazana reprezentacja świata przedmiotowego, mile widziana była w nim natomiast rzeczywistość świata przedmiotowego. Świat zewnętrzny przestali reprezentować także rzeźbiarze. Rzeźbą stał się sam realny przedmiot. Gdy przedmiot był jeszcze tylko obrazem, nie pojawiało się pytanie o wartość użytkową jego odwzorowania. Używanie jedynie namalowanego przedmiotu było bowiem w rzeczywistości niemożliwe. Wraz z nastaniem używania realnych przedmiotów w systemie sztuki pojawiło się pytanie o wartość użytkową (use). Jeżeli przedmiot codziennego użytku jest rzeźbą, to może być ona jako taki przedmiot używana. Stwarzając swe readymades Marcel Duchamp negował możliwość ich użytkowania. Możliwości takiej nie dawał odwrócony do góry nogami pisuar, który przez Duchampa był prezentowany jako obiekt estetyczny. Możliwość użytkowania swych przedmiotów estetycznych negowali także surrealiści, zawężając swe dzieła do funkcji czysto symbolicznej. Constantin Brancusi przypisywał natomiast swym ręcznie wykonywanym rzeźbom aż trzy funkcje użytkowe. Jedna rzeźba mogła być cokołem dla innej rzeźby lub taboretem do siedzenia. Natomiast taboret mógł być podestem dla rzeźby, mógł być sam rzeźbą lub przedmiotem użytkowym. Także produktywiści skupieni wokół Aleksandra Rodczenki około roku 1920 rozszerzyli postrzeganie rzeźby i zaczęli produkować nadające się do używania krzesła dla klubów robotniczych. Op art oraz kinetyka, ale także sztuka konkretna i konstruktywna, zwróciły się pod koniec lat 50. i na początku 60. XX w. do publiczności z jasnym wezwaniem do udziału i partycypacji. Ukazały się wzywające do partycypacji manifesty.
29 28
Wraz z przedmiotami codziennego użytku w sztuce pojawiły się także instrukcje obsługi. Bez owych instrukcji większości przedmiotów nie można bowiem używać. Instrukcja obsługi stała się dla oglądającego dzieło instrukcją postępowania, czyniąc z niego podmiot aktywny. Marcel Duchamp sporządzał na przykład dokładne instrukcje, jak należy oglądać obraz2. Wraz z możliwością użytkowania obiektów estetycznych na planie pojawił się także „użytkownik”. Później doszło nawet do tego, że przedmiot codziennego użytku został zastąpiony przez instrukcję obsługi (instrukcję postępowania), już od zawsze towarzyszącą inherentnie każdemu przedmiotowi i obiektowi sztuki. Żądanie to Franz Erhard Walther wypełnił w roku 1968 swą książką Objekte, benutzen. Użytkownik (user) przejął w świecie sztuki rolę centralną. W pewnym sensie to on zamyka proces powstawania dzieła sztuki. Gdyż tylko użytkownik przez kontakt z przedmiotami sprawia, że dzieło sztuki może egzystować i być rozwijane. Wyraźnie pokazuje to medialnie rozszerzone pojęcie rzeźby Erwina Wurma („Proszę postępować według instrukcji obsługi i pozostać w tej pozycji przez jedną minutę”)3. Akceptację obserwatora jako podmiotu aktywnego poprzedziło jego dowartościowanie jako podmiotu kreatywnego i rozwijającego refleksję: „Koniec końców”, stwierdził Duchamp w roku 1957, „akt kreatywny nie jest dokonywany jedynie przez artystę – widz doprowadza do kontaktu dzieła ze światem zewnętrznym, rozszyfrowując i interpretując jego wewnętrzne kwalifikacje, co jest jego wkładem w akt kreatywny”4. Odbiorca jest integralną częścią składową aktu kreatywnego. Widz przemienia się w artystę, konsument w producenta. Nowa muzyka: partytura i performance Kultura odbiorcy, względnie interpretatora, ma w muzyce znaczenie szczególne. Należy jedynie zastąpić pojęcie widz pojęciem interpretator, a pojęcie artysta przez pojęcie kompozytor: „Koniec końców akt kreatywny nie jest dokonywany jedynie przez kompozytora – widz doprowadza do kontaktu dzieła ze światem zewnętrznym, rozszyfrowując i interpretując jego wewnętrzne kwalifikacje, co jest jego wkładem w akt kreatywny”. Kompozytor pisze partyturę, na przykład na fortepian, lecz dzieło realizuje pianista, umiejący interpretować i grać partyturę. Kompozytorzy piszą muzykę. Piszą oni instrukcję obsługi, na przykład dla fortepianu. Interpretatorzy realizują instrukcję obsługi i stwarzają muzykę. W tym sensie Nowa Muzyka późnych lat 50. XX w. (Pierre Boulez, John Cage), która w sposób szczególny poświęciła się partyturze i przyznawała interpretatorom dużo wolności, była obok rzeźby dalszym ważnym źródłem powstania sztuki użytkownika. „In 1957 New Music was the Center of all Arts Movements and Germany was the Center of the New Music”, pisał w roku 1999 Nam June Paik5. Wraz z nastaniem wolności w interpretacji partytury, nierzadko aleatorycznej lub składającej się z bezpośrednich instrukcji, w sztuce lat 50. XX w. doszło do wzmocnienia tendencji partycypatorskich. W roku 1960 kompozytor La Monte Young napisał: „Composition #7: draw a straight line and follow it”. We wskazówkach z roku 1962, jakich użył Nam June Paik, znajduje się: „Read-Music – Do it yourself – Answers to La Monte Young”: „See your right eye with your left eye”. Przypadek i nieokreśloność, wolność interpretatora w granicach instrukcji partytury, należały od czasów Cage’a do znaczących tematów w Nowej Muzyce. 2 3 4 5
M. Duchamp, To be looked at with one eye, close to, for almost an hour, 1918. E. Wurm, The breaking through of an artist, 2003 M. Duchamp, The Creative Act [w:] Session on the Creative Act, Convention of the American Federation of Arts, Houston, Teksas, April 1957. Nam June Paik – Fluxus/Video, red. W. Herzogenrath, Kunsthalle Bremen, 1999 (karta z dedykacją).
29
Paik przeniósł te techniki kompozycyjne ze świata tonów do świata obrazów. W trakcie tego transferu miejsce muzyka zastąpiła sama publiczność jako interpretator względnie partycypant: „As the next step toward more indeterminacy, I wanted to let the audience (or congregation, in this case) act and play itself”, pisał Paik w swoim eseju About the Exposition of Music6. Jego rzeźba wideo Participation TV (1963) pozwalała publiczności zmieniać obrazy czarno-białego telewizora przez mikrofon i wzmacniacz liniowy – dla następnych dekad interaktywnej sztuki medialnej było to dzieło centralne. Praca Paika Random Access (1963) składała się z naklejonych na ścianę taśm magnetofonowych. Widz lub użytkownik mógł po nich przesuwać mobilną głowicę foniczną i samodzielnie wytwarzać przy tym muzykę. Stawał się w pewnym stopniu pianistą, nawigującym po ścieżce dźwiękowej i komponującym muzykę. Sztuka medialna i jej partycypatorskie tendencje narodziły się około roku 1960 z ducha muzyki, grunt pod nie przygotowała sztuka konkretna i kinetyczna7. Wzywanie publiczności do udziału w kreacji dzieła sztuki odgrywa dużą rolę także w Nouveau Réalisme. Métamatics, maszyny rysujące, których autorem był Jean Tinguely, umożliwiały publiczności w roku 1959 samodzielne wykonywanie rysunków. Na wystawie Feu à volonté (1961) Niki de Saint Phalle zaprosił publiczność do wzięcia do ręki strzelby i strzelania do asemblaży. Na sztukę akcji (happening, fluxus, performance i event) wpływały źródła malarskie i literackie, lecz także muzyka. To uczniowie Johna Cage’a przenieśli na publiczność ideę partytury jako instrukcji dla interpretatora. Przy przenoszeniu zasad partycypatorskich z sztuki akustycznej na wizualną miejsce centralne zajęła publiczność, jako aktywny podmiot dzieła sztuki. Akcja i partycypacja publiczności George Brecht, artysta uprawiający fluxus, uczeń Johna Cage’a, był w roku 1959 autorem zdarzeń (events), które składały się przeważnie z binarnych instrukcji. Słynne 18 Happenings in 6 Parts (1959) Allana Kaprowa, nadające tej formie sztuki jej nazwę, zawierają „instructions” do „a cast of participants”. Yoko Ono swoje performance zaczęła uprawiać w 1961 roku od przygotowania instrukcji dla publiczności. W Cut Piece (1964) wezwała publiczność do wejścia na scenę i obcinania jej ubrań. Sztukę instrukcji obsługi przedmiotów zamieniła w sztukę instrukcji dla ludzi8. Dalszym przykładem zastąpienia w sztuce akcji obiektu sztuki przez postępowanie i instrukcje do niego był happening YOU (1964) Wolfa Vostella w Long Island, Nowy Jork. „Podstawowa idea: skonfrontować uczestników, publiczność, w satyrze niespodzianek, jakie nieść może życie, mającej formę próby chaosu, nie jest ważne to, co myślę ja – lecz to, co publiczność wysnuje dla siebie ze zdarzeń i mojego image” (Wolf Vostell). Nie jest jednak tak, że dokonane w latach 60. XX w. przez Nową Muzykę, fluxus, happening, performance i Nouveau Réalisme odkrycie partycypującego widza, współgry i współtworzenia było wyłącznym dziełem tych rodzajów sztuki. Kinetyka i op art żądały już w latach 50. XX w. udziału widza w konstrukcji dzieła sztuki. „Chcemy wzbudzić uwagę widza, uczynić go wolnym, rozluźnić. Życzymy sobie jego uczestnictwa. Chcemy stworzyć mu sytuację, która wprawi go w ruch, pozwalając zarazem stać się owej sytuacji panem”9. Widz musiał 6 7 8 9
N.J. Paik, About the Exposition of Music, „Décollage” 1962, nr 3. W. Herzogenrath, „Der ost-westliche Nomade”, dz. cyt., por. przyp. 5. Por. J. Hendricks, Yoko Ono: instructions for paintings by Yoko Ono May 24, 1962, Galeria56, Budapeszt 1993. GRAV (Groupe de Recherche d’Art Visuel: Horacio Garcia-Rossi, Julio Le Parc, François Morellet, Francisco Sobrino, Joël Stein, Yvaral) [w:] „Stoppt die Kunst”, Manifest, 1965.
31 30
się poruszać po to, aby dostrzec złudzenia i fenomeny optyczne op artu. Kinetyczne obrazy-obiekty i rzeźby widz mógł wprawiać w ruch oraz zmieniać. Dzieła te umożliwiły zaistnienie wczesnych form interaktywności. Powstała w środowisku op artu i kinetyki Arte Programmata (1962, Umberto Eco) podkreślała rolę przypadku w toku ustalonego programu. Powstały zaprogramowane rzeźby i obrazy. Programy te nie były wykonywane przez komputery – po koncepcyjnym jedynie zaprogramowaniu następowała realizacja w sposób manualny i mechaniczny. Pomimo to patrzeć na nie należy jak na istotnych prekursorów sztuki komputerowej. Instrukcje i wskazówki różnych kierunków muzyki i sztuki ująć się dają pod pojęciem algorytm. Algorytm jest ściśle zdefiniowaną instrukcją postępowania wraz z określonymi elementami oraz zdeterminowanym następstwem; algorytm przekazuje maszynie lub człowiekowi informację o tym, co należy czynić. Maszyna jest sterowana przez następstwo cyfr i wykonuje program, człowiek postępuje według liter i symboli, czy będzie to przepis kulinarny, muzyczna partytura czy reguły gry. Intuicyjne algorytmy w formie instrukcji obsługi lub instrukcji postępowania przenikają do sztuki paralelnie do rozwoju maszyn liczących i języków komputerowych oraz ich algorytmicznych procedur. Sztuka medialna i emancypacja publiczności Wraz z postępem praktyk partycypatorskich różne ruchy artystyczne zmieniały widza w użytkownika, uczestniczącego aktywnie w konstrukcji dzieła sztuki, kształtowaniu jego formy, treści i zachowania. Ów zwrot ku odbiorcy uległ radykalizacji przez pośrednictwo mediów zapisujących i transmitujących (fotografia, telewizja, wideo, komputer i Internet). Fotografia jako medium demokratyczne, pozwalające wszystkim fotografować wszystkich, zdezawuowała arystokratyczne medium malarstwo i – przez to – jego kult prominencji. Od roku 1971 Braco Dimitrijevic zaczął promować jako gwiazdę nieznajomego przechodnia (casual passer-by), którego napotykał przypadkowo w określonym czasie i miejscu. Czynił to, uwieczniając owego przechodnia na wielkim banerze przed domem, przed którym go spotkał. W serii innych prac stawiał nieznajomym z otaczającej codzienności pomniki, nazywając ich imieniem ulice, wywieszając przed muzeami ich portrety lub prezentując ogromnymi literami na fasadach domów ich nazwiska. Porównywalną emancypację bezimiennych jako odtrutkę na celebrity cult kultury masowej i świata artystycznego zainscenizował w roku 1972 Jochen Gerz. Na murach Rue Mouffetard w Paryżu rozlepił plakaty z nazwiskami ośmiu nieznanych, mieszkających przy tej ulicy osób. Publiczność nie tylko więc partycypowała w produkcji dzieła sztuki, lecz sama została zadeklarowana jako dzieło sztuki względnie gwiazdor10. Publiczność stała się treścią. Podobnie rzecz się miała w wyprodukowanej przez grupę telewissen instalacji closed circuit Der Magische Spiegel (1970), gdzie zwykli ludzie po raz pierwszy ujrzeli siebie w „telewizji” (właściwie na wideo). Technologia wideo i technologia komputerowa sprawiły, że opcje partycypatorskie osiągnęły w latach 80. i 90. XX w. pułap interaktywności. Wyemancypowany konsument jako artysta – zwiedzający jako użytkownik (user) W świecie sztuki już od lat 60. XX w. następowała antycypacja i przygotowanie zmiany zachowania konsumenckiego. Kreatywność artysta przekazuje obserwatorowi, który otrzymuje również kompetencję ustalania reguł działania. 10
J. Gerz, Wystawa 8 osób, zamieszkałych przy Rue Mouffetard w Paryżu, poprzez ich nazwiska, na murach ich własnej ulicy, 1972.
31
Interaktywne dzieła sztuki nie istnieją już w sposób autonomiczny, lecz jedynie dzięki ich używaniu przez odbiorcę (user). Z bohatera artysta zamienia się w usługodawcę, a zwiedzający z pasywnego konsumenta w gwiazdora. Przez MySpace. com, Flickr.com, YouTube.com, ale także w światach wirtualnych jak SecondLife.com oraz na blogach, miliony ludzi wymienia obecnie każdego dnia zdjęcia, teksty, wideo i muzykę. Dla kreatywnych wypowiedzi milionów ludzi powstaje dysponująca nową strukturą przestrzeń. Już w roku 1970 Beuys stwierdził: „Każdy człowiek jest artystą”. Miliony ludzi znajdują codziennie w Sieci platformę do komunikacji, kreatywności i sztuki, w oderwaniu od takich instancji, jak wydawnictwa, muzea, galerie, czasopisma, radio, telewizja i Hollywood, które tradycyjnie rozstrzygały o produkcji i dystrybucji dzieł. Użytkownik staje się producentem, a może i artystą. Rozszerzyło się pole aktywnych podmiotów: dzięki konsumentowi jako aktywiście demokratyzują się kreatywność i innowacja. User innovation i consumer generated content wpływają nie tylko na świat mass mediów, lecz także na świat sztuki. Creative industries przyszłości staną się wyemancypowani konsumenci i użytkownicy (user). Także sztuka stanie się democratized user-centered innovation system. W Internecie utworzyła się nowa, wyemancypowana generacja producentów-konsumentów. Są oni użytkownikami, którzy sami wytwarzają treści i oferty, wymieniają je między sobą i w sposób nieskrępowany rozdzielają w Sieci. Strategię tę sztuka użytkownika przejmuje do systemu sztuki. Odwiedzający jako użytkownicy wytwarzają treści i oferty w samym muzeum, wymieniają je między sobą i w sposób nieskrępowany rozdzielają w Sieci. Muzeum oraz klasyczni artyści są w pewnym sensie dostawcami, dają do dyspozycji infrastrukturę. Użytkownicy, wyemancypowani konsumenci, dostarczają treści lub sami są treścią. Użytkownicy to prosumer (pro/ducer i con/sumer). W sztuce XX w. dominował paradygmat fotografii. Jej miejsce w XXI w. w świecie elektronicznym i jego elektronicznych mediach zajmie paradygmat użytkownika. Wszyscy staną się świadkami nowej kultury odbioru i konsumpcji, rozwój jej rozpoczął się już w wieku XX. Technologie informacyjne i komunikacyjne otwierają wrota do wieku wyemancypowanego konsumenta, który będzie dominować również w świecie sztuki. Kreatywność nie jest już monopolem artysty. Dzięki Internetowi muzeum może rozwinąć się w niezależną od przestrzeni i czasu komunikacyjną platformę kreatywności dla wszystkich11. Po okresie partycypatorskiej i interaktywnej sztuki medialnej to sami zwiedzający jako użytkownicy generują i zestawiają treść. Z konsumentów zamieniają się w producentów, kształtują program, urastając na konkurentów telewizji, radia i czasopism, historycznych mediów monopolistycznych. Zwiedzający mogą działać jako artyści, kuratorzy i producenci. Jako użytkownicy, wyemancypowani konsumenci, zajmują pozycję centralną.
11
Vom Betrachter zum Gestalter. Neue Medien in Museen – Strategien, Beispiele und Perspektiven für die Bildung, red. M. Mangold, P. Weibel, J. Woletz, Nomos, Baden Baden 2007.
33 32
Wokół interfejsów
Generacje: Jak komputer stał się maszyną generującą naszą kulturę? Peter Lunenfeld
Artykuł został pierwotnie opublikowany jako rozdział książki P. Lunenfeld, The Secret War between Downloading and Uploading. Tales of the Computer as Culture Machine, MIT Press, 2011, s. 143-179. Tłumaczenie: Roman Wojciechowski
35
37
Różnorodne historie, różnorodne możliwości Niewidzialna wojna tocząca się pomiędzy ściąganiem a udostępnianiem, unimodernizmem, infotriażem, władzą i zabawą, informacjonalizmem oraz przylepnymi mediami – to kwestie związane z XXI wiekiem, mimo że mają one długą i bogatą tradycję. Zarówno sam komputer, jak i też powiązane z nim systemy stanowią najbardziej złożone mechanizmy, jakie kiedykolwiek zostały stworzone przez człowieka. Historia rozwoju owych technologii nie jest łatwa do opisania, biorąc pod uwagę to, że łączy matematyczną zawiłość, inżynieryjną złożoność, wielkie fortuny zgromadzone i utracone, a także udokumentowany ze skrupulatną dokładnością wpływ mocy komputera na przekształcanie sposobu, w jaki żyjemy i w jaki się bawimy. Zrozumienie toku ewolucji technologii komputerowej jest jednak konieczne, aby móc odpowiednio dobrze zrozumieć problematykę, którą podejmuje niniejsza książka. Oznacza to, że aby osiągnąć obrane tu cele, chcąc skonstruować tego rodzaju historyczną narrację, trzeba podejść do wybranej materii w sposób bezwzględnie wybiórczy, stawiając na zrozumiałość treści kosztem jej obszerności. W następnych częściach niniejszego tekstu zarysuję wzloty i upadki symulacji i partycypacji w przeciągu sześciu odrębnych pokoleń komputerologicznych. Zdaję polemiczną relację toku rozwoju całej idei komputerologii, śledząc w tym celu zjawisko, które biolog ewolucyjny Richard Dawkins określił mianem memów, czyli samopowielających się idei będących intelektualnym odpowiednikiem genów1. Następne strony są wypełnione opowieściami o ludziach zainfekowanych przez memy zawierające ideę komputera jako maszyny niezbędnej do produkcji kultury. Dwa z memów, które wywarły kluczowy wpływ na rozwój idei komputera jako maszyny do produkcji kultury, to symulacja i partycypacja, a prześledzenie procesu ich wzajemnego przenikania się, jest kluczem do skonstruowania tych historycznych narracji. Memy te powstają zazwyczaj wcześniej od samych technologii, a osoby, które zostają nimi zainfekowane, poświęcają całe lata na stworzenie komputerów i systemów umożliwiających wdrożenie istoty tych idei w życie, przy czym każda kolejna generacja albo bazuje na osiągnięciach poprzedniej generacji, albo też rzuca jej wyzwanie. Pierwszą generację określiłem mianem Patriarchów – ich głównymi przedstawicielami, w omawianym tutaj kontekście, będą Vannevar Bush oraz J.C.R. Licklider – dwóch osobliwych wizjonerów, biurokratów i naukowców, którzy w przeciągu okresu od wczesnych lat powojennych po wczesne lata 60. XX w. ustanowili memy założycielskie. Druga generacja to Plutokraci – Thomas Watson Sr. i Thomas Watson Jr., pierwsi dwaj prezesi koncernu IBM, którzy w latach 50. i 60. XX w., centralizując zarządzanie działalnością swojej firmy wokół biurokratycznej hierarchii odgórnej, przekształcili technologię komputerową w propozycję biznesową. W reakcji na sztywną, formalną, zorientowaną wyłącznie na biznes postawę Plutokratów, Aquarianie lat 60. i 70. ubiegłego wieku – ludzie tacy jak Douglas Englebart i Alan Kay – rozwinęli te z bardziej otwartych koncepcji, 1
„Musimy nadać nazwę owemu nowemu replikatorowi, stosując rzeczownik, który oddawałby ideę przekazu kulturowego bądź opisywałby jednostkę imitującą. Mimeme wywodzi się z greckiego słowa oznaczającego naśladownictwo, lecz ja chciałbym użyć tu monosylabę o brzmieniu podobnym do słowa gen. Wyrażam nadzieję, że moi, mający klasycystyczne podejście, znajomi wybaczą mi za skrócenie określenia mimeme do słowa meme. O ile może to stanowić jakiekolwiek pocieszenie, ewentualnie można myśleć o owym słowie jako mającym związek z pamięcią [ang. memory – przyp. tłum.] bądź z francuskim słowem même – sam. Powinno się wymawiać je tak, aby rymowało się ze słowem krem”. R. Dawkins, The Selfish Gene, 1976 (przedruk: Oxford University Press, 2006), s. 192.
37
które zostały zaproponowane uprzednio przez Patriarchów, tworząc na ich kanwie komputerowy paradygmat maszyn zorientowanych graficznie, spersonalizowanych, połączonych ze sobą systemem sieciowym. W latach 80. i 90. minionego stulecia Hustlerzy – obrotni przedsiębiorcy w rodzaju Billa Gatesa z Microsoft i Steva Jobsa z Apple – skomodyfikowali tę spersonalizowaną wizję, oznakowując komputery charakterystycznym stemplem „nowej gospodarki”. Na początku nowego milenium, wykorzystując istniejącą już bazę użytkowników komputerowych technologii, Gospodarze [ang. Hosts – przyp. tłum.] – wynalazca internetowej Sieci World Wide Web, Tim Berners Lee, oraz guru ruchu open source, Linus Torvalds – połączyli te rozproszone maszyny w jedną ogromną sieć, skupiając się w równych proporcjach zarówno na aspektach komunikacyjnych, jak i na rozwiązaniach technologicznych, wznosząc partycypację na nowy poziom. Szósta generacja, czyli pokolenie Wyszukiwaczy, którego nazwa, nie ograniczając się wyłącznie do nich, inspirowana jest w dużej mierze osobami Larry’ego Page’a i Sergeya Brine’a, twórcami algorytmu będącego podstawowym elementem słynnej wyszukiwarki Google. Słowo Google posłużyło za nazwę korporacji, w którą przeobraziło się owo przedsięwzięcie, a następnie przyjęło się jako czasownik [to google something, czyli wygooglować – przyp. tłum.] – udało się nagromadzić tak olbrzymią ilość wszelkiej maści informacji, danych, treści oraz doświadczeń, iż fakt ten sprawił, że zjawiska symulacji i partycypacji stały się czymś wszechobecnym. Istnieją trzy domyślne sposoby, w jakie można opowiedzieć historię rozwoju komputerologii, lecz co ciekawe, rzadko zdarza się komukolwiek połączyć ze sobą te pozornie odrębne narracje. Jedną z nich jest historia komputerowego postępu opisana z perspektywy technologicznej oraz naukowej, i tak na prawdę, jest ona najmniej zrozumiała i najrzadziej rozpowszechniana. Jest to opowieść o algorytmach i schematach układów scalonych, lamp elektronowych, które przerodziły się w tranzystory, oraz laboratoriów badawczych przy takich uniwersytetach, jak Massachusetts Institute of Technology lub Stanford, czy też placówkach potentatów rynkowych, takich jak IBM i AT&T. Bez tego typu dokonań komputery nie mogłyby zaistnieć, ale szczegóły tych prac są technicznie zawiłe, a osoby je wykonujące znajdują się z dala od centrum uwagi. Dokumentowanie tego rodzaju osiągnięć nosi miano technografii – zapisu toku technologicznego rozwoju tworzonego głównie na potrzeby ekspertów. Następna opowieść to ta, którą znają niemal wszyscy. Jest to opowieść o fortunach zyskanych i utraconych. W okresie istnienia wielkiej bańki internetowej oraz tuż po końcu giełdowego boomu na dotcomy, wręcz roiło się od „maszyn” generujących gotowy zapis historyczny, dokumentujący przebieg tak zwanej nowej gospodarki – czasopism, takich jak „Business 2.0” czy „Fast Company” – które relacjonowały wzloty i upadki bóstw komputerowych geeków oraz ich „tworzenie bogactwa”. Historie takie, jak pakiet udziałów w firmę Microsoft zakupiony za dwadzieścia, a sprzedany za dwa tysiące dolarów, Bill Hewlett i Dave Packard pracujący nad pierwszymi pomysłami w wynajętym garażu w Palo Alto, Ross Perot rezygnujący z posady w IBM, aby móc założyć w Teksasie firmę Computer Data Systems, Jeff Bezos otwierający internetową księgarnię, nazwaną na cześć rzeki o największym przepływie wody na świecie, a kolejno pojawiający się w roli dyrektora generalnego Amazon.com na okładce magazynu „Time”, czy też Mark Zuckerberg przeobrażający serwis kontaktowy dla studentów pierwszego roku na Uniwersytecie Harward w Facebook, mający najbardziej dominującą pozycję w Sieci i najwyżej wyceniany portal społecznościowy na świecie. Przedstawione wyżej historie są w dużej mierze odpowiedzialne za przykuwanie ludzkiej uwagi do śledzenia historycznego biegu rozwoju technologii
39 38
komputerowych. Są to komputerowe dzieje opisane w formie plutografii, czyli opowieści o pieniądzach. Istnieje następna, jak na razie skromna, lecz stale poszerzająca swój zakres odmiana historii powyższego typu, która umiejscawia źródło przemian zachodzących w naszym świecie w działaniach wizjonerów komputerologii. Począwszy od napisanej w połowie lat 80. ubiegłego wieku książki Howarda Rheingolda Narzędzia dla myśli, wyłoniła się alternatywna forma narracji, będąca czymś na miarę opisu komputerowych dziejów dla intelektualistów, skonstruowana wokół takich postaci, jak niepohamowany entuzjasta hipertekstu Ted Nelson czy Timothy Leary, guru zwolenników psychodelicznych substancji psychoaktywnych, który w późniejszych latach życia, przeobrażając się w piewcę nowych mediów, stał się kimś w rodzaju cybermędrca2. Dla uczonych, zgłębiających tajniki poezji hipertekstowej, studentów na wydziałach nowych mediów, jak i dla tych, dla których komputery stanowią źródło fascynacji względem ich wpływu na kulturę, są to historie o świeckich świętych, stanowiące coś w rodzaju zsekularyzowanej hagiografii. W celu odpowiedniego zrozumienia przebiegu dziejów rozwoju maszyny do produkcji kultury należy spleść ze sobą te trzy narracyjne nurty w jedną historyczną ciągłość, zwracając uwagę zarówno na informatyków, milionerów, jak i marzycieli. Fakt, że pojedyncza opowieść o jednej tylko osobie, jednym urządzeniu czy wręcz jednej firmie łączy ze sobą te różne wątki, może być jedynie błogosławieństwem. Wojownicy: zarys prehistoryczny Przed II wojną światową życie było proste. Później pojawiły się systemy. Kontradmirał Grace Hopper, US Navy, w stanie spoczynku
Pierwsze pytanie nie powinno brzmieć: „Czym jest komputer?”, lecz raczej: „Kim jest komputer?”, ponieważ komputer był w pierwszej kolejności człowiekiem, a dopiero następnie stał się maszyną. Komputerzy byli osobami, w tym w przeważającej większości kobietami, które kalkulowały liczby, tabulowały wyniki i drukowały listy bądź matryce z rezultatami tych obliczeń. Na przełomie XIX i XX w. osoby takie były zatrudniane przez prywatne korporacje oraz instytucje rządowe, a ich praca przygotowywała podłoże dla informatycznie zorientowanej, zdefiniowanej przez precyzyjnie skalkulowane dane statystyczne i skrupulatnie opisanej cyframi rzeczywistości, w której obecnie żyjemy. Ogromne zapotrzebowanie na informacje i dane w okresie II wojny światowej sprawiło, że ludzka siła obliczeniowa nie była już wystarczająco wydajna do osiągnięcia celów wymaganych przez działania wojenne, w rezultacie czego stało się konieczne stworzenie nowego systemu. Akronim C3I wykorzystuje się w wojskowości i oznacza on „dowodzenie, kierowanie, łączność i rozpoznanie” (ang. – Command, Control, Communication, and Intelligence). Działania wojenne, które miały miejsce w XX w., wielokrotnie potwierdzały fakt, że strona konfliktu posiadająca przewagę względem C3I jest stroną zwycięską. I wojna światowa w dużej mierze była konfliktem europejskim, który przelał się na niektóre z krajów Bliskiego Wschodu oraz Afryki Północnej sąsiadujących bezpośrednio z Europą (i obejmował również uczestnictwo państw, takich jak Stany Zjednoczone, Kanada i Australia, będących zarazem dawnymi 2
H. Rheingold, Tools for Thought: The History and Future of Mind-Expanding Technology (1985; przedruk, MA: MIT Press, Cambridge 2000); dostępne pod adresem: <www. rheingold.com/texts/tft/>.
39
koloniami brytyjskimi, w roli sprzymierzeńców). Natomiast II wojna światowa faktycznie była konfliktem o wymiarze globalnym, a bitwy toczone w jej ramach rozgrywały się nie tylko w samej Europie, ale również w Afryce, Związku Radzieckim, Chinach, Japonii, na sporym obszarze Pacyfiku, a wraz z bombardowaniem Pearl Harbor, dotarły aż po same Stany Zjednoczone. Była to wojna toczona we wszystkich 24 strefach czasowych, na lądzie, na morzu, pod wodą i w powietrzu, a której kulminację stanowiło wynalezienie najbardziej przerażającej i technologicznie złożonej broni, jaka kiedykolwiek powstała – bomby atomowej. Przetworzenie ogromu informacji, których opracowanie było konieczne do prowadzenia działań wojennych, okazało się wyzwaniem, które zwyczajnie przekraczało ograniczone możliwości ludzkich komputerów. Dane przychodzące, wymagające analizy, pojawiały się w kolosalnych wręcz ilościach, a zapotrzebowanie na dokładne, odpowiednio sformatowane i nader wszystko aktualne informacje było podyktowane autentyczną kwestią życia i śmierci. W toku rozwoju komputerów pojmowanych jako maszyny, główny priorytet stanowiła ich umiejętność symulowania pracy komputerów pojmowanych jako ludzi. Rząd Amerykański wspierał badania nad rozwojem technologii umożliwiających mechaniczną reprodukcję czynności, które do tej pory były wykonywane przez komputery ludzkie. W pierwszej kolejności dotyczyło to obliczeń balistycznych. Celność działa dużego kalibru czy wyrzutni rakietowej jest zależna od warunków pogodowych, kąta nachylenia, wagi pocisku, odległości, w jakiej znajduje się wyznaczony cel oraz wielu innych czynników. Chcąc osiągnąć przewagę względem własnej C3I, co umożliwiłoby dominację na polu bitwy, alianckie siły zbrojne musiały zadbać o to, aby funkcjonowanie każdego z dostępnych im dział i wyrzutni artyleryjskich było dostosowane do indywidualnie sporządzonych obliczeń balistycznych. Powodzenie inicjatyw C3I z oczywistych względów stanowiło czołową prerogatywę wojska w okresie II wojny i jeśli osiągnięcie sukcesu w tym zakresie wymagało zamiany komputerowego „kto” na analogiczne do niego „co”, to po prostu tak musiało być – koniec i kropka. W dobie tego światowego konfliktu znalazło się jednak kilka kluczowych postaci, które miały świadomość, że jeżeli potężne możliwości, jakie oferują technologie komputerowe, nie pozostałyby ograniczone jedynie do laboratoriów badawczych i wojskowych centrów dowodzenia, ale zostałyby udostępnione znacznie szerzej, odbyłoby się to jedynie z korzyścią dla samej ludzkość. Dzięki dążeniu do celu partycypacji i przez połączenie jej z ideą symulacji, wizjonerom owym udało się z ponownie skupić uwagę na komputerowym „kto” w miejsce komputerowego „co”. To właśnie oni byli Patriarchami. Patriarchowie: Vannevar Bush i J.C.R. Licklider Świat dotarł do momentu, w którym powszechne stały się urządzenia tanie i niezawodne; a rezultatem tego musi być jakaś znacząca zmiana. Vannevar Bush Ludzie mają w zwyczaju przeceniać to, co możliwe jest osiągnąć w ciągu jednego roku, nie doceniając zarazem tego, ile może się dokonać na przeciągu od pięciu do dziesięciu lat. J.C.R. Licklider
Jest wielu matematyków, wczesnych informatyków oraz inżynierów, którzy swymi dokonaniami zasłużyli sobie na to, aby ich nazwiska znalazły się w szczytnym, pionierskim gronie pierwszego pokolenia Patriarchów. Do grupy
41 40
owej należą takie postacie, jak matematyk, kryptolog i jeden z twórców informatyki Alan Turing; matematyk i teoretyk mechaniki kwantowej John von Neumann; twórca cybernetyki Norbert Wiener; matematyk i inżynier Claude Shannon, będący jednym z twórców teorii informacji; oraz inżynierowie komputerowi, tacy jak Niemiec Konrad Zuse, a także amerykanie – J. Presper Ekhert i John Mauchy, którzy na Uniwersytecie Pensylwanii skonstruowali ENIAC, maszynę zajmującą sporej powierzchni pokój, powszechnie uważa się ją za pierwszy elektroniczny komputer ogólnego przeznaczenia. Właśnie oni byli tymi Patriarchami, którzy stworzyli wytyczne dla informatyki, określili zakres prac nad rozwojem software, czyli komputerowym oprogramowaniem, skonstruowali pierwotną architekturę hardware’ową, tj. materialną strukturę komputerowego sprzętu, i przygotowali kulturowe oraz naukowe podłoże dla dziedzin informatyki i inżynierii. Wszyscy oni zasłużyli na to, aby ich osiągnięcia zostały obszernie i skrupulatnie opisane w licznych opasłych tomach, a w przeciągu minionych kilkunastu lat nastąpił prawdziwy wysyp publikacji na ich temat, w tym mnogość biografii i opracowań krytycznych traktujących o życiu i dokonaniach wielu z najważniejszych postaci. Jednakże na potrzeby niniejszego tekstu skupię się jedynie na dwóch z nich – V. Bushu i J.C.R. Lickliderze. Biografia Busha nosi podtytuł Inżynier Amerykańskiego Stulecia i jest to całkiem trafne podsumowanie wpływu, jaki wywarł Bush na organizację życia i badań naukowych, które były prowadzone w Ameryce w drugiej połowie XX w. W trakcie II wojny światowej ówczesny prezydent Stanów Zjednoczonych, Franklin D. Roosevelt, mianował Busha na stanowisko dyrektora centralnego rządowego ośrodka badań naukowych i w rezultacie sprawowania przez niego tej właśnie funkcji, Bush wpłynął w tak radykalny sposób na życie naukowe nie tylko samego MIT, gdzie uprzednio pełnił rolę wiceprezydenta oraz dziekana wydziału inżynierii, ale także i innych znaczących akademickich placówek badawczych w Stanach. Właśnie Bush przyczynił się do ugruntowania wzajemnych relacji i kooperacji między uniwersyteckimi centrami badań a wojskiem w czasie wojny. W okresie poprzedzającym jego starania prace badawcze nad rozwojem militarnych technologii były prowadzone wyłącznie w placówkach wojskowych. Po zdeterminowanej inicjatywie Busha, prace tego rodzaju zaczęto również prowadzić w akademickich laboratoriach badawczych3. Dzięki takiemu układowi wojsko miałoby zagwarantowaną infrastrukturę badawczą konieczną do przeprowadzania technologicznie i informacyjnie zaawansowanych naziemnych i powietrznych ofensyw zbrojnych. Natomiast społeczeństwo, przynajmniej w teorii, zyskałoby stałe źródło finansowania i wsparcia dla podstawowych badań naukowych i będących w pewnym sensie produktem pobocznym tego rodzaju prac badawczych, mających zastosowania cywilne technologii typu spin-off4. Inicjatywy rodzaju spin-off, będące „ponadprogramowym” rezultatem badań naukowych i projektów badawczych prowadzonych w placówkach akademickich, które były finansowane przez wojsko, przyczyniły się do powstania położonej w okolicach Bostonu Trasy 128 (gdzie mieszczą się centra biznesowe takich firm, jak Raytheon czy the Digital Equipment Corporation). Trasa ta z kolei posłużyła za wzór dla Doliny Krzemowej (w tym miejscu absolwenci wydziałów inżynierii i informatyki na Uniwersytecie Stanforda stworzyli takie firmy, jak Hewlett-Packard, Intel, Yahoo! czy Google).
3 4
Zob. V. Bush, Science: The Endless Frontier, DC: U.S. Government Printing Office, Washington 1945. Obszerną analizę owych przemian można znaleźć w P.N. Edwards, Closed World: Computers and the Politics of Cold War America, MA: MIT Press, Cambridge 1996.
41
Całe to wzajemne splatanie się wiedzy z zagładą wywarło wpływ na myślenie Patriarchów. Bush w szczególności pragnął wykorzystać nowe technologie do ulepszenia ludzkich umiejętności przetwarzania i pojmowania informacji5. W słynnym artykule swojego autorstwa, noszącym tytuł As We May Think, opublikowanym na łamach „Atlantic Monthly” w 1945 roku, tuż po zakończeniu wojny, Bush pisał o hipotetycznym urządzeniu, które nazwał mianem Memex. Wynalazek ten miał symulować umiejętność tworzenia skojarzeń myślowych będącą cechą charakterystyczną dla ludzkiego mózgu6. Mimo upływu lat artykuł Busha wciąż potrafi wprawić czytelnika w zadumę. Zawiera on historię rozwoju komputerologii, a raczej prekomputerologii, opisaną w pigułce, omawiając mechaniczne maszyny liczące Gottfrieda Leibniza i maszynę różnicową Charlesa Babbage’a i poddając analizie zjawisko przeciążenia informacyjnego (pamiętajmy, że było to w 1945 roku), kreując wizję w pełni multimedialnego „badacza przyszłości” odzianego w sprzęt rejestrujący, który umożliwiałby datowanie, oznakowanie czasowe i synchronizację wyników badawczych z obserwacjami naukowymi. Jednak to właśnie opisane szczegółowo przez Busha teoretyczne urządzenie analogowe o nazwie Memex – będącej skrótem od angielskich wyrazów memory extender [przedłużacz pamięci – przy. tłum.] – posłużyło za pierwotny mem, który wyobrażał komputer jako maszynę do produkcji kultury. Memex, przez zastosowanie technologii mikrofilmu, miał funkcjonować na zasadzie umożliwiania korzystającym z niego użytkownikom wyszukiwania tych informacji, które chcieli znaleźć. Następnie użytkownicy mogli tworzyć połączenia skojarzeniowe pomiędzy poszczególnymi węzłami informacyjnymi, zarówno na użytek własny, jak i innych osób korzystających z tego urządzenia. Zaproponowana tu metoda tworzenia znaczeń, opierająca się na tworzeniu sieci połączonych ze sobą skojarzeń, to idea, która przez ponad pół dekady od chwili jej powstania wywierała nieustanny wpływ na ludzi odpowiedzialnych za projektowanie systemów hiperłączy. Fakt, że w zamyśle Busha urządzenie, które zaproponował, miało być analogowe i zmechanizowane, wykorzystując jako podstawę swojego funkcjonowania fotografię chemiczną, nie stanowiło jakiegokolwiek ograniczenia ani dla samego Busha, ani dla zwolenników tego rozwiązania. Sam Bush pisał proroczo: „Osobą wyjątkowo śmiałą byłby ten, kto przewidywałby, że tego rodzaju proces już na zawsze pozostanie niezdarny, powolny i niedoskonały względem szczegółów”. To, że Memex miał się opierać na rozwiązaniach technologicznych, które najprawdopodobniej nie sprawdziłyby się w praktyce, a także to, że komputery cyfrowe, nie analogowe, okazały się tą „prawdziwą” drogą rozwoju technologicznego, jest tu w zasadzie kwestią mało istotną. Rzeczą faktycznie kluczową dla memowych 5 6
G.P. Zachary, Endless Frontier: Vannevar Bush, Engineer of the American Century, MA: MIT Press, Cambridge 1999. „Ludzki umysł [...] funkcjonuje na zasadzie skojarzeń. Kiedy tylko pojawia się w nim pojedyncza myśl, natychmiast przechodzi do kolejnej idei, która pojawia się na zasadzie skojarzeń myślowych przypominających coś w rodzaju skomplikowanej sieci złożonej ze ścieżek wiodących przez poszczególne komórki mózgowe. Posiada on oczywiście również i inne cechy; te ścieżki, które są uczęszczane rzadziej od innych, nieuchronnie ulegają zatarciu, obecne w pamięci rzeczy nie są bytem trwałym, gdyż pamięć jest czymś ulotnym. Niemniej jednak prędkość, z jaką dokonują się owe skojarzenia, złożoność ścieżek składających się na tok myślowy, wyrazistość szczegółów przywoływanych przez umysł obrazów, cały ów proces mentalny jest jedynym z najbardziej nadzwyczajnych zjawisk w całym świecie natury”. As We May Think, przedruk w „Noah Wardrip-Fruin and Nick Montfort”, red. V. Bush, The New Media Reader, MA: MIT Press, Cambridge 2003, s. 44. Esej ten jest dostępny na wielu stronach internetowych, w tym między innymi pod adresem <www.theatlantic.com/doc/194507/bush>.
43 42
poszukiwań jest fakt, że Bush jest powszechnie uważany za prekursora hipertekstu, a jego dokonania stały się inspiracją dla kilku następnych pokoleń informatyków. Równie istotne jest docenienie tego, że rozpropagowanie przez Busha koncepcji Memexu stanowiło sposób na przekształcenie śmiercionośnych technologii ery II wojny światowej w coś, co niosłoby ze sobą korzyści dla całej ludzkości, a także umożliwiło poszerzenie skali oddziaływania takich idei znacznie wykraczającej poza granice małych środowisk technicznych i wojskowych, które w owym czasie były jedynymi mogącymi korzystać z tego rodzaju rozwiązań. Podobnie jak dyrektor naukowy projektu Manhattan J. Robert Oppenheimer, Bush wywodził się z pokolenia naukowców, którzy byli znacznie bardziej zaangażowani w badania nad rozwojem broni masowego rażenia niż jakiekolwiek pokolenie ich poprzedzające. Starszy od nich o jedno pokolenie Albert Einstein zachowywał wręcz olimpijski dystans względem destrukcyjnego potencjału, jaki niosła ze sobą energia atomowa, stając się zarazem osobą powszechnie postrzeganą jako ktoś w rodzaju świeckiego świętego o naturze naukowego geniusza. W tym samym czasie Oppenheimer, będący jednym z głównych architektów bomby atomowej, posiadłszy rosnącą świadomość ludzkiej predyspozycji ku dążeniu do samozagłady, pogrążał się w odczuciu coraz to większego przygnębienia. Podobnie jak Oppenheimer Bush również był aktywnie zaangażowany w działania wojenne. Odgrywał instrumentalną rolę w procesie strategicznego planowania bombardowania Japonii oraz w projektowaniu koncepcji ataku na tereny przemysłowe znajdujące się na obszarach będących we władaniu sił Osi. Innymi słowy, w okresie II wojny, miesiąc po miesiącu, Bush konsekwentnie wykorzystywał całą posiadaną przez siebie wiedzę ku nadrzędnemu celowi stworzenia i eksploatacji arsenału mającego służyć do niszczenia materialnych tworów ludzkości i niesienia zagłady samej jednostce ludzkiej7. Fakt, że jego pierwsze publiczne oświadczenie po zakończeniu wojny dotyczyło właśnie Memexu, jest poruszającym przykładem charakterystycznej dla Patriarchów dychotomii. Drugi z Patriarchów, J.C.R. Licklider, mimo że rzadko się dziś o nim pamięta, nie tylko przyczynił się do realizacji marzenia o symulacji i partycypacji swoimi własnymi dokonaniami, ale był również wiernie oddany wspieraniu tych inicjatyw i prac badawczych prowadzonych przez innych naukowców, które także wpłynęły znacząco na urzeczywistnienie tego marzenia8. Wiele wyniósł ze swoich stosunków zawodowych z Bushem, posiadającym wśród Patriarchów największe wpływy polityczne z całego grona. Licklider, którego wszyscy zdrobniale nazywali Lick, rozpoczął swoją pracę w MIT w latach 30. ubiegłego wieku, jako psycholog eksperymentalny prowadzący badania nad psychoakustyką. Podobnie jak wielu z jego kolegów naukowców, on również przyłączył się do cywilnych działań na rzecz wojny, w swoim przypadku koncentrując się na hydrolokacji i technologii echosondy, co wzbudziło w nim zainteresowanie problematyką wielkoskalowej analizy danych. Z kolei to sprawiło, że zaciekawiły go komputery, w szczególności przyczyniając się do jego obsesji na punkcie możliwości skonstruowania komputerów, które funkcjonowałyby w sposób zbliżony do działania innych, bardziej konwencjonalnych narzędzi badawczych mogących reagować na działania poczynione przez badacza w czasie rzeczywistym. Innymi słowy, Lickliderowi zależało na symulacyjnym odtworzeniu relacji, jaka istnieje między biologiem a mikroskopem czy też między artystą a malarską paletą. Według wizji odkrywcy komputer miał być urządzeniem, które współpracowałoby ze swoim użytkownikiem; w rzeczy 7 8
P. Galison, War against the Center [w:] „Grey Room” 2001, nr 4, s. 7–33. M.M. Waldrop, The Dream Machine: J.C.R. Licklider and the Revolution That Made Computing Personal, Penguin, Nowy Jork 2002.
43
samej, jedna z jego najsłynniejszych prac to opublikowany w 1960 roku esej noszący tytuł Symbioza człowieka z komputerem9. W epoce masywnych, ciężkich i powolnych maszyn było to ideą na wskroś radykalną. Dla Licklidera symbioza ta oznaczała, że użytkownikom był potrzebny nie tylko osobisty związek z ich maszynami, ale niezbędne dla nich były również osobiste komputery. W latach 40. i 50. XX w. taka postawa była czymś radykalnym, w czasach, kiedy za normę uchodziły zajmujące powierzchnię sporych rozmiarów pokoju komputery typu mainframe, a idea systemu podziału czasu (ang. time-sharing), polegająca na możliwości poddawania analizie przez komputer mainframe kilku problemów jednocześnie, wprowadzanych równolegle przez paru różnych użytkowników, wydawała się czymś kuriozalnym. Wizja partycypacji w wyobrażeniu Licklidera wykroczyła poza koncepcję zastosowania systemu podziału czasu w ogromnych komputerach typu mainframe, ewoluując w stronę idei uważanej wówczas za kwestią zupełnie marginalną: mianowicie, że każda osoba mogłaby posiadać swój własny komputer. Podobnie jak wiele innych spośród tych najbardziej innowacyjnych wizji proponowanych przez Patriarchów, również i w przypadku tego pomysłu musiały minąć całe dekady, aby mógł się on w pełni urzeczywistnić. Podobnie jak jego mentor Bush Licklider dzielił swój czas między badaniami laboratoryjnymi a pracą na zlecenie Rządu. W czasach kiedy piastował urzędową posadę w Agencji Zaawansowanych Projektów Badawczych Departamentu Obrony Stanów Zjednoczonych (ARPA), Licklider, sprawujący funkcję wysokiej rangi administratora, był odpowiedzialny za finansowanie szerokiej gamy projektów o zastosowaniu militarnym. Postarał się jednak przy tym o to, aby w zakresie swojej posady, mógł również udzielać wsparcia i dostępu do rządowych funduszy dla tych badaczy, którzy w latach 60. i 70. XX w. tworzyli ścisły rdzeń pokolenia Aquarian. Jego późniejsze zaangażowanie na rzecz tej sprawy było bezpośrednim wynikiem prac prowadzonych przez Licklidera w ramach swoich własnych badań. Kiedy Licklider skoncentrował już swoją uwagę na kwestii symbiotycznej łączności między człowiekiem a maszyną, zakres jego rozważań począł również obejmować temat łączności pomiędzy samymi maszynami, a tym samym także pomiędzy użytkownikami tychże maszyn. W 1962 roku, kiedy określił tę ideę mianem Międzygalaktycznej Sieci Komputerowej, było to ze strony Licklidera żartem jedynie połowicznym. Miał on świadomość szerszych następstw kulturowych, jakie niosłaby ze sobą technologia komputerowa, jeśli umożliwiłaby symulację ludzkich umiejętności porozumiewawczych oraz odwzorowanie symbiotycznych związków człowieka z innymi środkami przekazu. Do tych wątków jeszcze powrócę w dalszej części omawiającej Aquarian, ale zanim do tego dojdę, muszę rozprawić się wpierw z Plutokratami. Plutokraci: Dwóch panów o imieniu Thomas J. Watson Myśl. Thomas J. Watson Senior Nasza przyszłość nie zna granic. Thomas J. Watson Junior
Jest niewiele firm, których początki sięgają XIX wieku, w tym jeszcze mniej takich, jakie mogłyby szczycić się utrzymaniem wiodącej pozycji w dziedzinie 9
Przedruk w „Noah Wardrip-Fruin and Nick Montfort”, The New Media Reader..., s. 73–82.
45 44
technologii informacyjnej w dłuższej części tak rozległego okresu, a wśród nich ledwie garść tych, których kapitał można liczyć w miliardach dolarów. International Business Machines Corporation, powszechnie znana jako IBM, spełnia wszystkie z wyżej wymienionych kryteriów, ale zarazem osiągnięcia i działalność tej firmy znacznie poza te kryteria wykraczają10. Omówiono już ogólnie dokonania Patriarchów oraz ich prorocze wizje, ale warto pamiętać, że ich ówczesne działania miały bardzo nikły wpływ na szerszą świadomość komputerowej technologii wśród ogółu społeczeństwa. Jeśli w 1959 roku zapytano by przeciętną osobę o to, jakie, jej zdaniem, były najważniejsze postacie w wówczas wciąż bardzo krótkiej historii rozwoju komputerów, w odpowiedzi na to pytanie najpewniej wskazałaby na komercyjnych producentów dostarczających rozwiązania komputerowe innym firmom, czego rezultatem była zmiana sposobu, w jaki prowadzono przedsięwzięcia i transakcje biznesowe nie tylko w samych Stanach Zjednoczonych, ale i na całym świecie. Wśród ówczesnych producentów, o jakich tu mowa, ktoś mógłby wyróżnić takie przedsiębiorstwa, jak Digital Equipment Corporation (DED) czy Hewlett-Packard (HP), choć w skali międzynarodowej, w ścisłej czołówce niewątpliwie znajdował się wówczas IBM wraz z całymi legionami swoich odzianych w charakterystyczne firmowe błękitne garnitury przedstawicieli. Ponadto zagadnięta na ten temat osoba wymieniłaby najprawdopodobniej jedno konkretne nazwisko, jakie nosiło dwóch mężczyzn, kluczowych dla historii branży komputerowej – Thomas J. Watson, Senior i Junior. Starszy z nich zbudował najpotężniejszą z firm trudniących się mechanicznym przetwarzaniem danych; młodszy zaś postarał się, aby owa firma utrzymała swoją dominującą pozycję na rynku także w czasach epoki cyfrowej. Łączna suma ich dokonań w nieocenionym wręcz stopniu przyczyniła się do ustalenia praktyk biznesowych i kulturowych z zakresu technologii komputerowych, które obowiązywały przez wiele następnych dekad11. Powstanie IBM było rezultatem fuzji konglomeratu firm (najstarsza została powołana do życia już w 1888 roku) produkujących maszyny umożliwiające amerykańskim, a późnej również i światowym przedsiębiorstwom usprawnienie, zwiększenie wydajności i skwantyfikowanie swojej działalności biznesowej. Wytwarzały one takie produkty, jak wagi, karty zegarowe oraz, co właściwie najsłynniejsze, tabulatory, czyli służące do segregowania kart perforowanych maszyny licząco-analityczne, pozwalające na przechowywanie i analizę nieustannie rosnącej liczby danych o procesie produkcji, dystrybucji i sprzedaży. Pierwotnie zatrudniony w regionalnym oddziale firmy młody pracownik działu sprzedaży imieniem Thomas J. Watson w szybkim tempie pokonywał kolejne szczeble korporacyjnej drabiny, aby w 1915 roku przejąć stery przedsiębiorstwa, wówczas noszącego jeszcze nazwę The Computer Tabulating Recording Corporation. W ciągu dekady Watson zmienił nazwę firmy na International Business Machines Corporation, zachęcając do używania jej akronimu – IBM, słynne motto Watsona Seniora brzmiało: „Myśl”, ale etosem stanowiącym siłę napędową firmy było hasło: „Sprzedaj”. W epoce, kiedy sztuka sprzedaży była czczona jako największa z cnót, Watson był uznawany za najlepszego sprzedawcę na świecie
10 11
AT&T, GE i Philips zaczęły funkcjonować jako korporacje pod koniec XIX wieku. Powstało mnóstwo publikacji dotyczących IMB, a na portalu samej firmy można znaleźć cały oddzielny dział poświęcony oficjalnej historii ich działalności, o której można przeczytać pod adresem: <www.ibm.com/ibm/history/>, ale względem treści zawartych w tym tekście, najlepsze źródło stanowią pełne szczerych wspomnień pamiętniki, T.J. Watson, P. Petre, Father, Son, and Co.: My Life at IBM and Beyond, Bantam, Nowy Jork 2000.
45
(będąc zarazem jednym z najbogatszych ludzi świata)12. Watson Senior doskonale wyczuwał, że IBM jako firma powinna uważnie śledzić postęp technologii komputerowej i brać czynny udział w kształtowaniu kierunku jej przyszłego rozwoju. W okresie II wojny światowej firma współfinansowała prowadzone na Uniwersytecie Harvarda prace nad budową komputera Mark I, w czasie, gdy zatrudnieni przez IBM naukowcy i inżynierzy wypracowywali i ugruntowywali koneksje z wojskowością, które w erze powojennej zaczęły nabierać dla firmy coraz większej wagi. Na początku lat 50. XX w., kiedy syn Watsona, Thomas Watson Junior, przygotowywał się do objęcia stanowiska szefa firmy, najistotniejszą kwestią, z jaką im obu przyszło wówczas się zmagać, to pytanie, jak poradzić sobie ze zmianami, które technologie cyfrowe wywrą na ich firmie. Czy powinni zainwestować w komputery cyfrowe i czy aby takie posunięcie nie spowodowałoby obniżenia zysków, które firma czerpała ze sprzedaży swoich flagowych produktów, takich jak kalkulatory mechaniczne i tabulatory kart perforowanych? Główny wkład Watsona Seniora w rozwiązanie tej kwestii w gruncie rzeczy polegał na przekazaniu kontroli nad przedsiębiorstwem swojemu synowi dokładnie w chwili, kiedy taka decyzja mogła zaważyć na dalszych losach International Business Machines Corporation. Tak postanawiając, Watson Senior przyczynił się do tego, że technologia komputerowa wyszła poza laboratoryjne mury, trafiając do przedsiębiorstw na całym świecie, za pomocą już istniejącej pokaźnej infrastruktury sprzedaży i wsparcia, którą IBM zdołał stworzyć w okresie przedwojennym i rozbudować w czasach powojennego boomu. Ku chwale Thomasa J. Watsona Juniora udało mu się zaprowadzić w IBM nowy ład w relatywnie bezbolesny sposób. W latach 50. XX w. nadzorował prace badawcze nad komputerami z serii 650 oraz ich późniejsze wprowadzenie na rynek, co było zarazem pierwszym przedsięwzięciem związanym z technologią komputerową, które miało wymiar komercyjny. Dołożył starań ku temu, aby komputery z serii 650 zostały zaprojektowane w taki sposób, żeby mogły przetwarzać dane wejściowe przy wykorzystaniu z już istniejącej bazy czytników kart perforowanych wyprodukowanych przez International Business Machines Corporation. Umożliwiało to zarówno kompatybilność wsteczną nowych maszyn ze starymi, jak i pozwalało IBM utrzymać lojalność swojej uprzednio ugruntowanej grupy konsumentów w okresie, gdy firma wraz z jej klientami przechodziła z epoki mechanicznej do ery elektronicznej. Plutokraci, których pokolenie przeistoczyło informatykę w biznes, często byli zmuszeni do dokonywania trudnych wyborów pomiędzy technologiczną innowacyjnością, jaką mogli osiągnąć zatrudnieni przez nich inżynierzy, a gotowością (bądź też jej brakiem) ich klientów, aby zgodzić się na proponowane im zmiany. Decydując o swoich posunięciach biznesowych względem komputerów z serii 650, IBM upewnił się, aby nowy rodzaj proponowanej przez nich technologii był kompatybilny z uprzednio istniejącą infrastrukturą przetwarzania danych, z której dotąd korzystali ich klienci w największym stopniu, jaki tylko był możliwy. Dekadę później, Watson Junior postanowił zrezygnować z takiego rozwiązania, stwierdzając, że architektura komputerów produkowanych przez IBM w latach 50. XX w. nie była wystarczająco solidna, aby móc podołać technicznym wyzwaniom, jakie stwarzały nowe technologiczne możliwości i nowe potrzeby ich klientów. 12
Przeogromna liczba wydanych w Stanach Zjednoczonych książek dotyczących tematyki sztuki sprzedaży mogłaby spokojnie zapełnić pokaźnych rozmiarów bibliotekę. Wśród pozycji na ten temat, które ukazały się w pierwszej połowie XX wieku, jedną z najważniejszych jest motywacyjny bestseller Napoleona Hilla Think and Grow Rich (Myśl i bogać się), który pierwotnie ukazał się w 1937 roku, a którego tytuł w perfekcyjny sposób łączy zdolności poznawcze ludzkiego umysłu z ideą biznesowego sprytu.
47 46
Thomas J. Watson Junior zainwestował bezmiar zasobów pracowniczych oraz finansowych w serię komputerów System/360, które nie były wstecznie kompatybilne – co oznaczało, że wprowadzając je na rynek, podejmował ogromne ryzyko. Czasopismo „Fortune” umieściło zdjęcie Watsona na okładce z nagłówkiem Gra o 5 miliardów dolarów, podając w wątpliwość, czy klienci IBM przystaną na technologiczną wizję, którą on im proponował. Klienci mimo wszystko przyjęli te zmiany, a z perspektywy czasu IBM System/360 był uznawany nie tylko za jedno z najbardziej ryzykownych przedsięwzięć w historii biznesu, ale zarazem za jedno z najlepszych. Plan firmy okazał się sukcesem na tyle spektakularnym, że w ciągu dekady IBM został oskarżony przez Departament Sprawiedliwości Stanów Zjednoczonych o praktyki monopolowe, a Big Blue (Wielki błękit), jak potocznie nazywano przedsiębiorstwo, był często piętnowany jako bezduszne i stechnokratyzowane korporacyjne monstrum. Komputery mainframe, których rynek został zdominowany przez tak znanych producentów, jak DEC, Honeywell, a przede wszystkim IBM, były centralnie zorganizowane i hierarchiczne. Obsługiwane i kontrolowane przez specjalizujący się w przetwarzaniu danych elitarny korpus profesjonalistów – swoistego rodzaju mandarynów połowy XX w. – będących na posługach biznesowej, wojskowej i naukowej klienteli. Wprowadzanie danych odbywało się zazwyczaj za pomocą kart perforowanych, na których widniało ostrzeżenie „Nie giąć, nie zwijać, nie uszkadzać” – co owszem może i było dobrą radą, ale zarazem działało odstraszająco na użytkowników. Komputery w tamtych czasach były maszynami alfanumerycznymi, pozbawionymi jakichkolwiek interfejsów wizualnych, i ograniczającymi interakcję między użytkownikiem a maszyną do absolutnego minimum. W owych czasach większości ludzi miała styczność z komputerami jedynie przez pośredników, a sposób funkcjonowania stosowanego w tych maszynach oprogramowania jedynie dla samych programistów i operatorów obsługujących proces wprowadzania danych nie stanowił materii całkowicie nieprzeniknionej. Następną znaczącą postacią wśród Plutokratów był Gordon Moore, współzałożyciel firmy Intel, będącej jednym z największych na świecie producentów układów scalonych. Obserwacja, jaką poczynił, dotyczyła tego, że co 18 miesięcy moc obliczeniowa komputerów będzie się podwajała, a cena malała o połowę, stała się powszechnie znana jako Prawo Moore’a, przerodziwszy się zarazem w jeden z koronnych memów informatyki komercyjnej13. Prawo Moore’a oznacza, że nadmiernie drogie koncepcje wymagające ogromnej mocy przetwórczej zaprojektowane dzisiaj, nadal pozostaną możliwe do zrealizowania za rok, kiedy wydajność wzrośnie, a cena zmaleje. Moore ustanowił również inny z memów, jaki za sprawą Plutokratów zakorzenił się w komputerowej kulturze: ideę przedsięwzięć biznesowych typu spin-off. 13
Moore stworzył słynne prawo swojego imienia w czasach, gdy pracował dla firmy Fairchild Semiconductor. W opublikowanym w wydaniu „Electronics Magazine” z 19 kwietnia 1965 roku artykule: Wciskanie większej ilość elementów do układu scalonego pisał: „Stosunek złożoności komponentów w proporcji ich ceny minimalnej rósł w tempie o czynniku dwóch na rok. [...] Można spodziewać się, że w krótkiej perspektywie, takie tempo niewątpliwie się utrzyma, a nawet wzrośnie. W dłuższej perspektywie, nie można mieć pewności, co do prędkości, z jaką będzie postępowało tempo wzrostu, choć nie ma powodów, aby wątpić w to, iż utrzyma się ono na mniej więcej tym samym poziomie przez okres co najmniej dziesięciu lat. Oznacza to, że do roku 1975 liczba komponentów mieszczących się na pojedynczym układzie scalonym w stosunku do ich ceny minimalnej będzie wynosiła 65 000. Jestem przekonany, że możliwe jest zbudowanie układu elektronicznego o takiej złożoności na pojedynczej płytce”.
47
Thomas J. Moore i Philip Noyce, również będący jednym z współzałożycieli firmy Intel, byli wcześniej członkami słynnej „Zdradzieckiej ósemki”, której skład tworzyła grupa ludzi zatrudnionych uprzednio w pionierskiej placówce badawczej Shockley Semiconductor Laboratory. Pracownicy ci postanowili zerwać swoją współpracę z zachowującym się w coraz bardziej niezrównoważony sposób szefem zespołu, Williamem Shockleyem, i założyć następnie własną konkurencyjną firmę, Fairchild Semiconductors. Moore wraz z Noycem odłączyli się z kolei od Fairchild i stworzyli własną firmę typu spin-off o nazwie Intel. Nowa inicjatywa stała się źródłem inspiracji dla dosłownie dziesiątek tysięcy przedsiębiorców marzących o stworzeniu własnych koncernów komputerowych i zostaniu Plutokratami swojego pokolenia – co stanowi odmianę memu partycypacji. Mimo że w czasach świetności Big Blue naukowców IBM uhonorowano wieloma nagrodami, zarówno Nobla, jak i Turinga, powodem, dla którego tekst ten jest skupiony na Watsonach, jest fakt, że przeistoczyli oni marzenia Patriarchów w produkty rynkowe. Cechą ery Plutokratów była stateczna niezawodność, w modłę której kreatywne wizje wynalazcy zostały zastąpione kwartalnymi prognozami kierownika działu sprzedaży. Wkład ich w mem symulacji był prosty: pragnęli upodobnić komputery do innych towarów handlowych. Strategia biznesowa, jaką stosowali Watsonowie, opierająca się zarówno na zapobiegawczym zagwarantowaniu akceptacji klientów dla proponowanych przez firmę produktów, jak i sporadycznej gotowości podjęcia ryzyka wprowadzenia na rynek zupełnie nowych, niekompatybilnych z uprzednio stosowanymi rozwiązaniami, technologii, czyni z nich wzorce (uznane lub nie) dla późniejszego pokolenia Hustlerów, którzy podążyli ich tropem. Plutokraci nie stanowili oczywiście jednolitej grupy. Wśród nich znaleźć można zarówno prawdziwych geniuszy inżynierii, takich jak Moore, energicznych przedsiębiorców, takich jak Hewlett i Packard, jak i urodzonych handlowców, takich jak Watsonowie. Byli nimi i entuzjastyczni ryzykanci, i odziani w błękitne garnitury korporacyjni menedżerowie. Dołożyli wszelkich starań, aby produkty i rozwiązania technologiczne proponowane przez ich firmy były jedynymi, z jakich korzystać będą ich klienci, ale byli gotowi zaryzykować wprowadzenie na rynek całkowicie nowych technologii, jeśli byli przeświadczeni o komercyjnym sukcesie takiego posunięcia. Informatykę uczynili biznesem, nie przywiązując się przy tym nadmiernie do marzeń, które rozpalały wyobraźnię Patriarchów. Gdy Patriarchowie wywierali swoje największe wpływy, wizjonerscy marzyciele nadal pozostawali obecni, a ich wyobraźnię absorbowała wówczas kwestia tego, w jakim stopniu byłoby możliwe wykorzystanie komputerów do technologicznej symulacji wielu różnych wzorców. Mieli oni na myśli coś w rodzaju swoistej erotyki symulacyjnej – rozkoszy wpierw z robienia z tymi maszynami czegoś, a następnie z robienia z nimi wszystkiego. Możliwości, jakie oferowała ta technologia, zdawały się nieograniczone. Następne pokolenie wizjonerów nazwałem mianem Aquarianów, a porównać ich można do malarzy spoglądających na czyste, niczym niezapełnione jeszcze płótno, bądź też do rzeźbiarzy krążących wokół surowego, nietkniętego przez dłuto bloku marmuru. Aquarianie: Douglas Engelbart i Alan Kay Za 20 czy 30 lat, całość informatycznej wiedzy, jaką aktualnie można zgromadzić w pojedynczym mieście, czy wręcz, jaka obecnie istnieje na całym świecie, pomieści się w komputerze, który da się trzymać w jednej ledwie ręce. Douglas Engelbart Tym, co trwa, jest nie sama technologia, lecz marzenie w niej zawarte. Alan Kay
49 48
Doug Engelbart pracował w świecie rządzonym przez Plutokratów, ale stworzył świat, w którym żyjemy my sami. Inspirował się wizjami Patriarchów i to oni wspierali finansowo kampanię, którą on toczył przeciwko kulturze wykreowanej przez Plutokratów. Tuż po zakończeniu II wojny, kiedy trudnił się pracą operatora radiowego w stacjonującej w Filipinach jednostce amerykańskiej armii, Engelbart miał sposobność przeczytać przełomowy artykuł Busha As We May Think, a siła roztoczonych w tym tekście wizji podtrzymywała go na duchu zarówno przez cały okres studiów, jak i w czasach, kiedy już jako absolwent rozpoczynał pracę w Kalifornii. Engelbart poświęcił swoje życie na wynalezienie nowego sposobu myślenia o komputerach – pojmowanych nie jako maszyny do przetwarzania danych w rozumieniu Plutokratów, lecz jako urządzenia pozwalające na rozszerzenie możliwości ludzkiego intelektu14. Swoich najbardziej kluczowych w tamtym okresie badań dokonał, pracując w mieszczącej się w pobliżu Uniwersytetu Stanforda placówce badawczej Stanford Research Institute (SRI). W prowadzonych przez siebie tam pracach był wspierany finansowo przez agencję rządową DARPA, znajdującą się wówczas pod dyrekcją Licklidera, który popierał naukowe dociekania Engelbarta ze względu na to, że łączyły one ideę komputerowej partycypacji z celem, jaki stanowiła technologiczna augmentacja. Według wizji Engelbarta komputery winny być urządzeniami służącymi poszerzaniu możliwości ludzkiej inteligencji, przy czym cel nadrzędny winno stanowić znajdowanie rozwiązań dla największych dylematów, przed którymi stoi ludzkość. Kwestii tych, które zostały określone później mianem problemów złośliwych, czyli takich zagadnień, jakie są wyjątkowo złożone zarówno pod względem społecznym, jak i środowiskowym, od walki z ubóstwem przez urbanistykę, po określenie tego, co stanowi godne życie przeżyte z godnością. Engelbart obrał za swój cel bodaj największe z możliwych wyzwań związanych z ideą symulacji: już nie samo odwzorowanie sposobu funkcjonowania pojedynczego umysłu, lecz stworzenie symulacji najlepszych aspektów myślenia i działania kolektywnego. Starania te przyczyniły się do zaistnienia będącej splotem dwóch memów idei partycypacji symbiotycznej. Rzeczą oczywistą jest, że wielu naukowców, zarówno w zakresie samej informatyki, jak i poza tą dziedziną nauki, zajmowało się badaniami nad problemami złośliwymi, choć naprawdę niewielu spośród nich zdołało wywrzeć swoimi dokonaniami wpływ na tyle bezpośredni i powszechny, na ile udało się to dokonać Engelbartowi w 1968 roku. Był to rok, w którym przedstawił on „matkę wszystkich prezentacji”. Publiczny pokaz jego inwencji i koncepcji zaprezentowany przed audytorium składającym się z kolegów po fachu oraz członków młodszego pokolenia, dla którego roztoczone przez niego wizje miały okazać się źródłem późniejszych inspiracji. W ramach prac badawczych, które prowadził w placówce SRI, Engelbart opracował nowatorski system komputerowy, składający się z takich elementów, jak graficzny interfejs użytkownika, skalowane okienka, hipertekst i możliwość prowadzenia wideokonferencji w czasie rzeczywistym. Wszystkimi tymi okienkami i wszelkimi innymi związanymi z obsługą tego prototypowego komputerowego interfejsu elementami i czynnościami można było sterować za pomocą nowo wynalezionego przez Engelbarta urządzenia. Wynalazek ten służył do komunikacji z komputerem – była to dziwacznie wyglądająca rzecz umożliwiająca kontrolowanie elementów znajdujących się w dowolnie ulokowanym miejscu widniejącym na ekranie komputera. Wniosek patentowy złożony przez Engelbarta opisywał owo coś mianem wskaźnika 14
Zob. T. Bardini, Bootstrapping: Douglas Engelbart, Coevolution, and the Origins of Personal Computing, CA: Stanford University Press, Palo Alto 2001.
49
pozycji X-Y w systemach wyświetlania. Urządzenie to składało się z drewnianej obudowy, na tyle małej, aby mogła mieścić się w jednej ręce, przykrywającej dwa metalowe kółka, a całość była podłączona do komputera za pomocą długiego, cienkiego kabla przypominającego ogon. Na cześć owego ogona Engelbart wraz ze swoją ekipą badawczą nazwał swój wynalazek myszką. Wszystko to składało się na system, który Engelbart zaprezentował w 1968 roku podczas zorganizowanej w tym celu telekonferencji między San Francisco a Palo Alto, demonstrując w jej ramach również funkcje procesora tekstu i poczty elektronicznej przedstawione w oddzielnych, skalowanych okienkach. Całość pokazu przeprowadził w czasie rzeczywistym przy użyciu ogromnych projektorów wypożyczonych mu przez Departament Obrony Stanów Zjednoczonych. W komputerowym świecie zdominowanym przez alfanumeryczne systemy wprowadzania i wyprowadzania danych, interfejsów kontrolowanych przez wiersz poleceń i obopólnej interakcji między użytkownikiem a maszyną ograniczonej do absolutnego minimum, przedstawiona przez Engelbarta prezentacja, łącząca ideę symulacji z koncepcją partycypacji, była niczym mniej niż istnym objawieniem. Należy zaznaczyć, że cała ta telekonferencyjna transmisja odbywała się między dwoma miejscami oddalonymi od siebie o niecałe 50 kilometrów. Nawet jeżeli przyjmie się, że świt nowej komputerowej Ery Wodnika nie nastał w pełni wraz z momentem przedstawienia przez Engelberta jego na wskroś wiekopomnej prezentacji, to w zakresie dziedzin informatyki i inżynierii pozostaje to niewątpliwie chwilą na tyle przełomową, na ile to tylko jest możliwie. W latach 60. XX w. ludzie starali się scalić ze sobą zbiór uczuć i odruchów niosących jakieś ogólne poczucie nadziei – szansy na to, że ludzkości uda się zjednoczyć w celu uczynienia tego świata lepszym i że dzięki rozwojowi technologicznemu, od komunikacji przez farmakologię po loty kosmiczne, rodzaj ludzki zmierzał ku nastaniu nowej epoki – wieku powszechnie zwanego Erą Wodnika. Pojęcie Aquarian, czyli Wodnik, stało się tożsame z pełną nadziei, choć niezupełnie praktyczną postawą charakterystyczną dla tamtych czasów15. Ani sama prezentacja Engelbarta, ani też pozostałe dokonania innych Aquarianów w latacha 60. i 70. XX w. nie stały się czymś szeroko znanym, ale miały one kluczowe znaczenie dla procesu przeobrażania „duszy zaklętej w maszynie”. Dążyli oni do zhumanizowania, zdecentralizowania i spersonalizowania komputerów, i stali w żelaznej opozycji do Plutokratów, sprzeciwiając się praktycznie każdemu aspektowi stosowanych przez nich, polegających na korporacjonistycznej komodyfikacji komputerowej technologii, praktyk. Czymś, czego w mniemaniu Aquarianów była pozbawiona era Plutokratów, było poczucie, że ludziom udało się stworzyć technologię będącą nowym sojusznikiem ludzkości, pomocnym nie tylko w działaniach na polu bitwy, w laboratorium badawczym czy biurze. Ponadto miniona epoka pominęła wszelkie dążenia ku temu, aby życie mogło stać się czymś lepszym i bardziej twórczym. Kiedy ktoś określa moment zaprezentowania przez Engelbarta rozwiązania technologicznego NLS (skrót od oN-Line System) mianem matki wszystkich prezentacji, to osoba posługująca się tym stwierdzeniem ma na myśli fakt, że owa, oszałamiająca skalą technologicznej innowacyjności prezentacja (z pełną gamą przestawianych w jej trakcie nowatorskich rozwiązań, takich jak obsługiwany w czasie rzeczywistym interfejs graficzny czy nowe urządzenie nazwane
15
Zob. J. Markoff, What the Dormouse Said: How the 60s Counterculture Shaped the Personal Computer, Viking, Nowy Jork 2005. Opis przedstawionego w szerszym kontekście duchowego krajobrazu Kalifornii można znaleźć [w:] E. Davis, Visionary State, Chronicle Books, San Francisco 2006.
51 50
później myszką) w całej swej totalności, w jednej chwili, czasie i miejscu radykalnie odmieniła kulturę informatyczną. Przynajmniej w głowach tych osób, które potrafiły ogarnąć szersze implikacje tego, co wtedy ujrzeli. Jedną z najbardziej utalentowanych i zdolnych spośród tych osób był młody Alan Kay. Erudyta, który w czasach studiów doktoranckich dorabiał sobie jako gitarzysta jazzowy, nigdy nie czuł się w pełni swobodnie wewnątrz granic akademickiego świata16. Kay przybył do okolic zatoki San Francisco z Uniwersytetu w Utah, gdzie w ramach doktoratu prowadził prace badawcze w laboratorium naukowym prowadzonym przez Ivana Sutherlanda. Spośród wszystkich osób, które zaliczam tu do grona Aquarianów, możliwe, że etykieta ta w najmniejszym stopniu pasuje akurat do Sutherlanda. Był on wyjątkowo zasadniczym inżynierem, który po dokonaniu największego wkładu w swoją dziedzinę, rozkręcił dochodowy interes, prowadząc firmę, jej zakres działania ograniczał się niemal wyłącznie do realizowania zamówień wojskowych. To właśnie Sutherlandowi, pomimo jego konformistycznego sztywniactwa, zawdzięcza się fakt, że technologia komputerowa rozwinęła się od strony wizualnej. Ponieważ to on był postacią, która otworzyła świat informatyki na wpływy artystów, projektantów i innych kreatywnych prawo-mózgowców. Rezultatem jego badań był komputerowy system wizualizacji reagujących na ruch w czasie rzeczywistym, który jest uważany za pierwszy na świecie model wirtualnej rzeczywistości. Przełomowe osiągnięcia przyczyniły się do poszerzenia horyzontów myślowych ludzkiego umysłu na tak kolosalną skalę, że tym samym czuję się zobowiązany, aby zaliczyć Sutherlanda w poczet Aquarianów. Opracowując program Sketchpad, który umożliwiał komputerową symulację procesu pisania długopisem na kartce papieru, wykraczając zarazem poza wizualne możliwości i efektywność tej czynności manualnej. Sutherland stworzył pierwszą autentycznie wydajną i potrafiącą w realny sposób reagować na ruchy użytkownika stację roboczą do komputerowego projektowania grafiki z prawdziwego zdarzenia. Sutherland podkreślał fakt, że system, który skonstruował, nie ograniczał się jedynie do symulacji pisania na papierze, ale pozwalał także na tworzenie uprzednio technicznie niewykonalnych mikrorysunków. Stało się to możliwe dzięki temu, że program Sketchpad oferował użytkownikom opcje skalowania, zbliżania i oddalania przez zoomowanie oraz makrowizualizację narysowanych przez nich za pomocą komputera grafik, które można było tworzyć na nieograniczonej fizycznie wirtualnej powierzchni. Jakiekolwiek odczucia mógł mieć Sutherland, który w owym czasie pracował w Provo w stanie Utah, względem tego, co działo się wówczas w okolicach nasyconej w nieporównywalnie większym stopniu aquariańskim etosem zatoki San Francisco, Kay miał poczucie, jakby miejsce to było dla niego jego drugim domem. Odnalazł tam informatyczną społeczność, która potrafiła docenić jego podejście do programistyki, podchodząc z szacunkiem do jego osobistego pragnienia, aby stało się możliwe stworzenie komputerów, którymi potrafiliby posługiwać się zwykli ludzie, a w szczególności także i dzieci. Dla Keya i jemu podobnych prezentacja Engelbarta była twardym dowodem nie tylko na to, że realizacja ich pomysłów była możliwa pod względem technicznym, ale również i na to, że ich urzeczywistnienie mogłoby na nowo wzniecić 16
Mimo iż niewątpliwie zasłużył on sobie na tego rodzaju publikację, nie ukazało się jak dotąd pojedyncze książkowe opracowanie biograficzne w pełni poświęcone Alanowi Kay. Wiele z artykułów jego autorstwa można przeczytać w Internecie, a jedna z lepszych reminiscencji to tekst A Kay, User Interface: A Personal View [w:] The Art of Human Computer Interface Design, red. B. Laurel, Reading, MA: Addison-Wesley, 1990, s. 191–207.
51
powszechny entuzjazm wokół komputerowej technologii. W ciągu 15 lat Kayowi udało się rozszerzyć koncepcję augmentacji opracowaną przez Engelbarta na sferę oprogramowania – dokonał pionierskiej pracy, tworząc obiektowy język programowania, udoskonalił graficzny interfejs użytkownika oraz ulepszył funkcjonowanie Ethernetu. Kay odgrywał również centralną rolę w rozwoju prac nad komputerem Alto, urządzeniem stworzonym w ośrodku badawczym Xerox PARC, które jest uznawane za pierwszy komputer osobisty z systemem graficznym. Mimo to ówczesne kierownictwo Xeroxa, zarządzające interesami firmy z siedziby głównej, znajdującej się niemal 5000 kilometrów na wschód od centrum badawczego w Palo Alto, nie miało pojęcia, w jaki sposób można by wprowadzić tę przełomową maszynę na rynek. Napięte stosunki między odzianymi w garnitury mocodawcami z korporacyjnych centrów na amerykańskim, wschodnim wybrzeżu, a pracującymi na ich zlecenie technikami laboratoriów badawczych na zachodnim wybrzeżu były źródłem kluczowego konfliktu definiującego tę aquariańską erę. Natomiast prowadzone wówczas batalie pozostawiły po sobie spuściznę, będącą motorem napędowym dyskursów, które są toczone w Dolinie Krzemowej po dziś dzień. Nawet jeśli Kay nie dokonałby wszystkiego tego, co udało mu się osiągnąć, nadal przeszedłby do historii jako autor koncepcji „dynamicznych mediów osobistych” (ang. personal dynamic media). Prowadząc prace w placówce badawczej PARC, Kay wraz ze swoją ekipą stworzył koncepcyjny prototyp o nazwie Dynabook, ustanawiając tym samym wzorzec dla wszystkich późniejszych laptopów, tabletów i wszelkich innych komputerowych urządzeń przenośnych, jakie tylko zostały następnie wynalezione. Kay przewidział integrację cyfrowych form twórczego wyrazu z niemal każdym aspektem ludzkiej egzystencji, od najwcześniejszych niemowlęcych doświadczeń w zdobywaniu wiedzy o otaczającym człowieka świecie aż po najbardziej zaawansowane eksperymenty naukowe17. Dzieci stanowiły źródło inspiracji zarówno dla samego Kaya, jak i dla wielu innych genialnych naukowców zaliczanych do ruchu Aquarianów, dla których impulsem twórczym były pionierskie badania nad teorią rozwoju poznawczego przeprowadzone przez Szwajcarskiego psychologa i teoretyka pedagogiki Jeana Piageta18. Kolektywnie informatycy ci tworzyli coś, co określam terminem kinderkult. Wielu naukowców ma poczucie, jakby żyli w intelektualnej izolacji od reszty ludzkości, 17
18
Kay przewidział również powstanie bezprzewodowych sieci lokalnych (ang. wireless networking). W notatce służbowej sporządzonej w 1971 roku, w okresie kiedy prowadził prace badawcze w Xerox PARC, której pełną treść można przeczytać na stronie: <www.artmuseum.net/w2vr/archives/Kay/01_Dynabook.html>, pisał on: „Pomimo że Dynabook będzie wyposażony w obszerną pamięć wewnętrzną, a większość procesów obliczeniowych będzie dokonywała się lokalnie, przez znaczną część czasu urządzenie podłączone będzie do różnych serwisów świadczących szeroki wachlarz usług informacyjnych umożliwiających użytkownikom wzajemne udostępnianie pomysłów, wzorów projektów, różnorodnych treści oraz danych, jak również i zwyczajową wymianę myśli między pracownikami, która konieczna jest do codziennego funkcjonowania organizacji. Komunikacja ta odbywać się będzie metodą cyfrowej transmisji danych przekazywanych za pośrednictwem łączy prywatnych i publicznych oraz sieci typu Packet Radio. Dynabooki będą pełniły również rolę serwerów zawierających dane używane przez serwisy pośredniczące w wymianie informacji. Komputery te posiadały będą wystarczającą wydajność oraz moc przetwórczą, aby mogły one funkcjonować wyłącznie w oparciu o samo oprogramowanie”. Wyjątkowe wrażenie wywarł na Kayu sposób, w jaki wypracowane przez Piageta teorie zostały wykorzystane do stworzenia języka programowania LOGO opracowanego przez matematyka z MIT, Seymoura Paperta.
53 52
której przeważająca większość, z racji braku odpowiedniego wykształcenia bądź umiejętności, nie posiada zdolności koniecznych do pojmowania matematycznego rozumowania na odpowiednio zaawansowanym poziomie. Aquarianie upatrywali w komputerach szansy na zniwelowanie tej mentalnej przepaści, w szczególności względem znaczenia, jakie to miało w przypadku dzieci. Kay i jemu podobni mieli ponadto odczucie, że komputery pozwolą zarówno osobom dorosłym, jak i dzieciom na wyzwolenie w sobie ze znacznie większą łatwością, tego rodzaju niczym nieskrępowanej kreatywności, jaki jest charakterystyczny dla sposobu myślenia najczęściej spotykanego u najmłodszych. Szczególny nacisk, jaki Aquarianie kładli na pedagogiczny i zabawowy aspekt komputerowych technologii, skłonił ich ku promowaniu idei stosowania tego rodzaju rozwiązań technologicznych na możliwie najszerszą społeczną skalę, tym samym ugruntowując mem partycypacji w jeszcze większym niż dotychczas stopniu. Podobnie jak miało to miejsce w przypadku poprzedzającej ich generacji Patriarchowów, pokolenie Aquarianów również zostało w dużej mierze skazane na zapomnienie. Nie oznacza to bynajmniej, że pokolenie to nie miałoby stanowić źródła inspiracji dla pasjonujących się komputerową tematyką historyków, hardcore’owych hakerów czy co poniektórych technologów bądź artystów techno. Jednak mimo bardziej powszechnego uznania dla ich dokonań Aquarianów nie plasuje się na aż tak wysokiej pozycji w panteonowej hierarchii kulturowych herosów, na jaką sobie faktycznie zasłużyli. Powód takiego stanu rzeczy jest w swej istocie nader prozaiczny: nie spieniężyli oni swojego geniuszu. Engelbert wynalazł komputerową myszkę, a Stanford Research Institute sprzedało licencję na to urządzenie firmie Apple za raptem 40 tysięcy amerykańskich dolarów. Kay wchodził w skład zespołu badawczego, który stworzył Alto, czyli pierwszy komputer osobisty mający prawdziwy potencjał rynkowy, ale firma Xerox, na której zlecenie on powstał, nie potrafiła wypracować klarownej koncepcji jego sprzedaży19. Losy innych spośród nich, takich jak uchodzący za wzór aquariańskich cnót wszelakich twórca pojęcia hipertekst i pionier technik informacyjnych, Ted Nelson, stały się przestrogą dla tych, którzy pojawili się po nim. Wymarzona technologia wreszcie zaistniała, sen o partycypacji nie tylko począł się ziszczać, ale zaczął wręcz w pełni rozkwitać, jednak Aquarianom nie udało się sprzedać innym hołubionych przez siebie idei i technologicznych rozwiązań, które wypracowali na prawdziwie masową skalę. Przy czym trzeba zaznaczyć, że przynajmniej jak jest to w przypadku Stanów Zjednoczonych, sprzedaż na skalę masową stanowi jeden z najlepszych sposobów na zaistnienie w zbiorowej świadomości. Natomiast sprzedaż masowa jest dokładnie tym, do czego iście stworzeni byli Hustlerzy. Hustlerzy: Steve Jobs i Bill Gates Czy kogokolwiek stać na to, aby odwalać robotę profesjonalistów za friko? Bill Gates, 1976 Prawdziwi artyści dostarczają to, czego ludzie potrzebują. Steve Jobs, 1983
19
Zob. M.A. Hiltzik, Dealers of Lightning: Xerox PARC and the Dawn of the Computer Age, HarperCollins, Nowy Jork 1999; D.K. Smith, R.C. Alexander, Fumbling the Future: How Xerox Invented, Then Ignored, the First Personal Computer, William Morrow, Nowy Jork 1988.
53
Jeżeli nawet wśród najlepiej poinformowanych użytkowników komputerów Joseph Carl Robnett Licklider i Douglas Engelbart uchodzą za postacie mało znane, to z kolei Steve’a Jobsa i Billa Gatesa, którzy zaistnieli w zbiorowej wyobraźni jako triumfalni królowie komputerowych maniaków, niewątpliwie można uznać za najbardziej rozpoznawalne ikony informatyki20. W apogeum swojej świetności Jobs był prawdopodobnie najbardziej barwnym i intrygującym przedsiębiorcą świata, któremu jako jednemu z niewielu udało się zbudować warte wiele miliardów dolarów biznesowe imperia w dwu różnych branżach. Był on nie tylko współtwórcą produkującej komputery osobiste firmy Apple, ale również założycielem wytwórni filmów animowanych Pixar. Gates był dyrektorem generalnym firmy Microsoft, i jak powie niemal każdy taksówkarz od Kalkuty po Cancún, przez wiele lat również najbogatszym człowiekiem na świecie. Właśnie Jobs i Gates, bardziej niż ktokolwiek inny, przyczynili się do tego, że komputery stały się częścią codziennego życia, technologie zyskały znacznie bardziej przyjazny użytkownikowi wymiar, a informacja w równej mierze stała się siłą napędową współczesnego handlu oraz kultury. Swoją działalność Jobs i Gates zaczynali, kiedy idea komputerów osobistych zapoczątkowana przez Patriarchę Licklidera i Aquariana Kaya wciąż była jeszcze domeną wąskiej grupy nawiedzonych pasjonatów. Można było zrobić na tym interes, ale na skalę nie większą niż w wąskiej branży sztucznych przynęt wędkarskich. Jako dorastający w latach 70. XX w. nastolatkowie Jobs i Gates stanowili część małej grupy hobbistów, którzy nabywali zestawy do budowy prostych, programowalnych komputerów służących do domowego użytku oraz zabawy. Jobs wszedł do spółki ze Stevem Woźniakiem, byli członkami najbardziej znanej grupy entuzjastów domorosłej informatyki, stowarzyszenia Homebrew Computer Club z Cupertino w Kalifornii. Gates, który parał się programowaniem już w szkole średniej, kiedy udało mu się uzyskać dostęp do wyprodukowanego przez firmę DEC komputera typu mainframe, będąc późnej studentem Harvardu, tworzył oprogramowanie na w pełni profesjonalnym poziomie. Jobs i Gates, podobnie jak ci, z którymi w latach 70. XX w. przyszło im współpracować i rywalizować, znaleźli się w punkcie zwrotnym, kiedy to, co uprzednio stanowiło dla nich jedynie hobby przeistoczyło się w biznes. Tym, co sprawiło, że stali się zarówno bogatymi, jak i wpływowymi, była ich umiejętność łączenia kluczowych atrybutów dwu poprzedzających ich generacji – twardej logiki biznesu Plutokratów z dalekosiężnym wizjonerstwem Aquarianów. Steve Jobs i Bill Gates mają bardzo interesującą historię współzawodnictwa, polegającą na prześciganiu siebie nawzajem w celu osiągnięcia tego, co Jobs określił mianem fenomenalnej doskonałości, a Gates upatrywał w globalnej dominacji rynku21. 20
21
Określenie triumfalni królowie komputerowych maniaków zostało zaczerpnięte z filmu dokumentalnego z 1996 roku – The Triumph of the Nerds: The Rise of Accidental Empires, zrealizowanego przez Roberta X. Cringleya dla amerykańskiego kanału telewizyjnego PBS (Public Broadcasting System), a bazującego na kanwie książki jego autorstwa, noszącej tytuł Accidental Empires: How the Boys of Silicon Valley Make Their Millions, Battle Foreign Competition, and Still Can’t Get a Date, Harper Business, Nowy Jork 1993. Dziennikarz Steve Levy zaczerpnął tytuł swojej książki, Insanely Great: The Life and Times of Macintosh, the Computer That Changed Everything, Viking Penguin, Nowy Jork 1993, z twierdzenia samego Jobsa, że on i jego ekipa byli blisko stworzenia komputera będącego nie tylko urządzeniem funkcjonalnym i przynoszącym zyski, ale również czymś fenomenalnie doskonałym. Opublikowana w tym samym roku książka autorstwa Jamesa Wallace’a, opisująca z kolei dążenie Williama Henry’ego „Billa” Gatesa III do rynkowej dominacji, nosi tytuł Hard Drive: Bill Gates and the Making of the Microsoft Empire, Harper Business, Nowy Jork 1993.
55 54
Steve Jobs wraz ze swoim partnerem biznesowym, Woźniakiem, byli pierwszymi, którym dzięki założonej przez siebie w 1976 roku firmie Apple Computers udało się przeobrazić z hobbistów w przemysłowców. Wprowadzony na rynek w 1977 roku komputer Apple II był tym produktem firmy, który przebił się do masowej świadomości, zyskując rzesze klientów i czyniąc Jobsa i Woźniaka pierwszymi powszechnie wychwalanymi, genialnymi, milionerami z Doliny Krzemowej. Jakkolwiek był istotny dla nich wczesny sukces osiągnięty przez Apple II, to jednak największy wpływ udało im się wywrzeć siedem lat później, kiedy zainspirowani myślą Engelbarta i Kaya stworzyli komputer osobisty dla masowego odbiorcy, który ustanowił nowy standard dla partycypacji. Zanim to omówię, muszę cofnąć się do roku 1976, przenosząc się z Doliny Krzemowej do Nowego Meksyku, gdzie Gates i jego partnerzy biznesowi, w tym jego dawni znajomi z Harvardu, Pall Allen i Steve Ballmer, tworzyli oprogramowanie dla komputera Altair. Był to rok, w którym Gates zaadresował słynny list do komputerowych hobbistów. Uskarżał się w nim na niepohamowane software’owe piractwo. Twierdził, że nic innego by go tak nie uradowało jak stworzenie biznesowego modelu dla społeczności hobbistów, który umożliwiłby mu zatrudnienie na pełny etat dziesięciu programistów piszących oprogramowanie na ich potrzeby. Już cztery lata później Microsoft generował zysk, tworząc oprogramowanie z zamkniętym kodem źródłowym (ang. closed source code) dla różnorodnych platform komputerowych, a do Gatesa zwróciło się samo IBM, wtedy będące największym producentem komputerów na świecie, z zamówieniem na stabilny system operacyjny dla nowej klasy komputerów osobistych, które Big Blue wówczas wprowadzał na rynek. Właśnie wtedy IBM i pracujący dla nich specjalizujący się we własności intelektualnej prawnicy podpisali umowę, która współcześnie jest określana mianem najgorszego kontraktu w historii światowego biznesu. Gates, jako syn prawnika, znanego specjalisty od własności intelektualnej, wynegocjował kontrakt, według którego, zamiast pełnej sprzedaży systemu operacyjnego wyzbywającej się wszelkich praw, Microsoft udzielał jedynie IBM-owi nań samej licencji. W myśl umowy Microsoft zastrzegł sobie także prawa do udzielania licencji na oprogramowanie MS-DOS i programy pokrewne wszelkim innym producentom komputerów. W świetle sukcesu rynkowego IBM pojawiła się mnogość firm produkujących klony komputerów osobistych, ale to Microsoft, nie ponosząc żadnych kosztów produkcyjnych związanych z samym hardware i posiadając jednocześnie monopol na dominujący system operacyjny, okazał się w tym wypadku głównym wygranym. W ciągu zaledwie dekady Microsoft było warte więcej niż IBM, czyniąc Gatesa najbogatszym człowiekiem świata. Gatesowi udało się pokonać Plutokratów w ich własnej grze i samemu stać się jednym z nich. Nawet uwzględniając czynnik inflacji, Watsonowie nigdy nie byli aż tak bogaci, jakim stał się Gates. Gates był podziwiany za swoją biznesową strategię i potępiany za towarzyszącą jej bezwzględność, ale tak, jak miało się to w przypadku jego poprzedników Plutokratów, wizjonerstwo nie było dla niego celem nadrzędnym. Steve Jobs, z kolei jako współtwórca i dyrektor generalny Apple, zasłynął z roztaczania wokół siebie tzw. pola zakłócenia rzeczywistości (ang. reality distortion effect) wynikającego z ogromnej siły oddziaływania, jakie miały jego komputerowe wizje. W późnych latach 70. XX w., pracując dla pioniera gier komputerowych Atari, odwiedził placówkę badawczą Xerox PARC, gdzie miał sposobność obserwować rozwiązania technologiczne zainspirowane aquariańskimi wizjami Engelbarta i Kaya. Duch ten stanowił dla Jobsa, który w pewnym momencie swojego życia odbył spirytualną podróż do Indii, wyjątkowe źródło inspiracji.
55
Niemniej jednak tym, co wpłynęło na niego w jeszcze większym stopniu po wizytach w placówce PARC, był mem partycypacji. Wypuszczony na rynek w 1977 roku komputer Apple II wyróżniał się unikalnymi wówczas możliwościami graficznymi oraz wmontowaną kartą dźwiękową. Jako pierwszy prawdziwy komputer osobisty dla mas, który od samego początku był pomyślany jako maszyna multimedialna, okazał się prawdziwym objawieniem. Seria Apple II na stałe zagościła w szkolnych klasach całej Ameryki, co bez wątpienia przygotowało całe pokolenie użytkowników komputerów do kolejnych technologicznych przemian w przyszłości. Jobs był świadom tego, że dzięki zastosowaniu graficznego interfejsu użytkownika, nie tylko powstanie cała gama nowego oprogramowania przyjaznego nawet dla laików, ale również spotęguje to przyrost nowych użytkowników. Seria Macintosh, która pojawiła się w 1984 roku, przyniosła następny przełom w integracji dźwięku, obrazu i ruchu w świecie komputerów osobistych. Maszyny te miały wbudowaną możliwość obsługiwania hipertekstu, skalowane okienka, które po raz pierwszy zostały zaprezentowane światu przez Engelbarta w trakcie jego słynnej prezentacji z 1968 roku, a co więcej, uczyniły z myszki urządzenie powszechnego użytku. Nie ulega wątpliwości, że korzenie Jobsa sięgają generacji Aquarianów i że Gates, wygrywając z IBM w ich własnej grze, przejął pałeczkę po Plutokratach. Jednakże ukazanie się na rynku systemu operacyjnego Microsoft Windows, jako następcy funkcjonującego na zasadzie wierszy poleceń MS-DOS, było interesującym przypadkiem wzajemnego naśladownictwa w obrębie tego samego pokolenia. Amerykańskie sądy już dawno ustaliły, że system operacyjny komputerów Macintosh nie naruszał praw autorskich, którymi objęty był system Windows. Warto również podkreślić, że w przeciwieństwie do krążących w powszechnym obiegu plotek Gates nigdy nie wystosował pisemnego polecenia do swoich podwładnych, aby „wzorować się na Macu”. Pomijając jednak kwestie prawne, faktem jest, że to Apple był innowatorem, natomiast Microsoft był bardziej skłonny przyswajać gotowe już rozwiązania. Jednakże to, co kiedyś odróżniało Hustlerów od siebie nawzajem, z perspektywy czasu zginie w mrokach historii, a za pół wieku różnica między Jobsem a Gatesem będzie się wydawała ludziom tak znikoma, jak ta, która jawi się nam współcześnie między Johnem D. Rockefellerem a Andrew Carnegiem. Bez wnikania w to, kto czego dokonał jako pierwszy i jakie towarzyszyły temu motywy, kluczowym osiągnięciem pokolenia Hustlerów było wykorzystanie zmysłu marketingowego i managerskiego talentu Plutokratów do rozpowszechnienia auquariańskiego ducha innowacji i geniusza wynalazczości wśród ogólnoświatowej populacji. Pomimo trudności stwarzanych przez nieprzebierających w środkach producentów, oferujących miernej jakości aktualizacje swoich systemów operacyjnych, i przysparzające o ból głowy problemy z kompatybilnością oprogramowania, w ciągu następnych trzech dekad coraz większe rzesze użytkowników stawały się posiadaczami maszyn o coraz większej mocy obliczeniowej. Przekładało się to na wzrastającą możliwość tychże maszyn do symulowania innych, będących już w powszechnym użyciu urządzeń medialnych, które w tym wypadku zostały zintegrowane w bardziej jednolity (przynajmniej w teorii) system. Mimo iż wszystko zdawało się iść jak po maśle, w całym tym dynamicznym procesie przekształceń wciąż brakowało jednego z memów, który był tak kluczowy dla pokoleń Patriarchów i Aquarianów. Na cóż mogła się zdać ta wielka moc obliczeniowa i potencjał twórczy drzemiący w komputerach, jeśli użytkownicy nie mogli wykorzystać ich do wzajemnego przekazywania informacji, na wzór tego cudownego XIX-wiecznego wynalazku, jakim był telefon? Innymi słowy, któż mógłby przeistoczyć tę istniejącą
57 56
już bazę rozproszonych komputerów, w informacyjną sieć komunikujących się ze sobą maszyn. Kto zdołałby połączyć je w system umożliwiający wymianę zarówno treści rozrywkowych, jak i życiowych doświadczeń, a nawet wzajemne łączenie zasobów wiedzy w celu rozwiązywania nurtujących ludzkość od zarania dziejów „problemów złośliwych”? Oczywiście – Gospodarze. Gospodarze: Tim Berners-Lee i Linus Torvalds Tym, co przeglądasz, wpływasz na świat. Tim Berners-Lee Oprogramowanie jest jak seks: jest lepsze wtedy, kiedy otrzymuje się je za darmo Linus Torvalds
Po triumfach, jakie Jobs odniósł z firmą Apple, komputerem Macintosh, wytwórnią komputerowych filmów animowanych Pixar, internetowym serwisem muzycznym iTunes, smartfonem iPhone, a także tabletem iPad, trudno już teraz pamiętać, że miał on również swój udział w wielu niepowodzeniach. Najlepszym tego przykładem, ukrytym pomiędzy kolejnymi stronami jego korporacyjnej biografii, jest NeXT Computer, relatywnie krótkiego żywota firma, którą stworzył w połowie lat 80. XX w., już po swoim odejściu z Apple. Przepięknie zaprojektowany komputer NeXT Cube, zaprezentowany światu po raz pierwszy w październiku 1988 roku, poniósł rynkową klęskę. Podobnie jak obecnie niemal zupełnie już zapomniany poprzednik Macintosha, Apple Lisa, był on o wiele za drogi, aby zyskać zainteresowanie konsumentów szersze niż w wąskim gronie badaczy i pracowników naukowych. NeXT Cube stał się jednak czymś, co przyczyniło się do zmiany sposobu, w jaki dokonywała się interakcja między samymi konsumentami oraz rynkami a komputerami już nie tyle „osobistymi”, co raczej „interpersonalnymi”. Od samego początku Jobs i jego ekipa zaprojektowali komputery NeXT Cube tak, aby mogły komunikować się miedzy sobą. Powstała zatem maszyna oferująca możliwość łączenia się w sieć komunikacyjną dokładnie w taki sposób, w jaki przewidzieli to Patriarchowie dziesiątki lat temu, a w przeciągu następnych lat Engelbart i Kay starali się udoskonalić komputer z obiektowym językiem programowania, wspólnymi środowiskami pracy oraz zintegrowanymi narzędziami wizualnymi i dźwiękowymi. Innymi słowy, była to maszyna, która oferowała wiele z tych możliwości, które ludzie oczekiwali od komputerów po roku 2000, przy czym pojawiła się ona z 15-letnim wyprzedzeniem. W późnych latach 80. XX w. w laboratorium fizyki w Genewie pewien brytyjski naukowiec posługujący się komputerem NeXT Cube testował możliwość zastosowania tej maszyny do rozwiązania jednego z kluczowych dylematów, z którym niejednokrotnie przyszło mu się zmagać w ramach dziedziny, jaką się zajmował. Odkrycia naukowe z zakresu fizyki, podobnie jak główny przedmiot tej dziedziny, często sprawiają wrażenie, jakby dokonywały się z prędkością światła, ale proces publikowania wyników badań na łamach specjalistycznych publikacji naukowych, posuwa się zazwyczaj w iście żółwim tempie. Mając na celu przyśpieszenie tempa przekazywania informacji zarówno wewnątrz laboratorium badawczego, jak i poza nim, Tim Berners-Lee zaczął zastanawiać się nad możliwościami, jakie mogłoby oferować publikowanie treści w formie elektronicznej. W swoim poprzednim miejscu pracy uzyskał doświadczenie z zakresu komputerowego składu tekstów, a systemy hipertekstowe były czymś, czym interesował się już od ponad dekady.
57
W 1989 roku opublikował pracę traktującą o sprzęgnięciu wizualnego systemu hipertekstowego z internetowymi protokołami komunikacyjnymi, co umożliwiałoby wzajemne łączenie plików za pośrednictwem komputerowej sieci wymiany danych22. Berners-Lee pragnął osiągnąć podwójny cel w zakresie symulacji: z jednej strony, chciał, aby hipertekst mógł symulować komunikowanie się międzysieciowe, z drugiej zaś strony, zależało mu na tym, aby sieci komunikacyjne mogły symulować wizualną formę połączeń oferowaną przez hipertekst. Dwa lata później, w 1991 roku, przy użyciu serwera NeXTStep udało mu się skonstruować taki właśnie system i załadować pierwszą stronę na sieć komunikacyjną, która została nazwana przez niego mianem World Wide Web: <http:// info.cern.ch>. Było to ucieleśnieniem idei Międzygalaktycznej Sieci Komputerowej wysuniętej przez Patriarchę Licklidera, połączonym z nigdy niezrealizowaną koncepcją uniwersalnej tekstowej bazy danych Xanadu, zaproponowanej przez Aquariana Teda Nelsona. Warto jest poświęcić trochę czasu na rozszyfrowanie owego zagadkowego zbioru liter, jakim jest ów przytoczony powyżej adres internetowy <http:// info.cern.ch>. Po pierwsze, jest to stosowany w Internecie i Sieciach lokalnych, ujednolicony format adresowania zasobów, znany powszechnie jako URL (ang. Universal Resource Locator), który pełni funkcję słownego wskaźnika przypisanego do określonej grupy cyfr – w tym konkretnym przypadku, jest to 0.001.0012.2275. Po drugie, „http” to protokół przesyłania dokumentów hipertekstowych (ang. HyperText Transfer Protocol), który wiąże ze sobą właściwości łączące hiperteksty z funkcjami komunikacyjnymi Internetu. „Info” pełni tutaj rolę ekwiwalentną do Świętego Graala, jako że sama strona zawiera coś, co pojedyncza osoba lub grupa osób udostępniła przez załadowanie, a inna osoba lub grupa osób będzie mogła skorzystać z tych treści przez ich ściąganie. W następnej kolejności „cern” to nazwa centrum badawczego, gdzie strona ta została stworzona. Centrum to posiadało wówczas największe zagęszczenie połączeń internetowych w całej Europie. Z kolei „ch” to skrót od Confoederatio Helvetica, będącej łacińską nazwą Szwajcarii23. Pierwsza w historii strona WWW zawierała instrukcje informujące innych użytkowników Sieci, w jaki sposób mogą stworzyć własną stronę internetową, a następnie umieścić na na niej odnośniki (ang. links) do stron założonych przez innych. Początkowo ta pierwotna strona pełniła również funkcję spisu zawartości Sieci, na której Berners-Lee umieszczał odsyłacze do adresów internetowych nowo powstałych stron, nadsyłanych mu przez innych użytkowników. Efekt tych działań rozprzestrzeniał się niczym wirus o globalnym zasięgu. Już wcześniej istniały sposoby dystrybucji i wyszukiwania treści przez Internet, tak jak niemal zapomniane już dzisiaj protokoły komunikacyjne, takie jak Telnet, Gopher czy też Fetch, lecz tym, co dokonał Berners-Lee, było stworzenie pierwszego prawdziwie intuicyjnego, graficznego interfejsu użytkownika. Celem naukowca już od samego początku było to, aby tworzenie treści w Sieci było procesem tak 22 23
Zob. <www.w3.org/History/1989/proposal>. Szwajcarzy posługują się czterema językami urzędowymi i stosują lingwistycznie neutralny skrót CH, jako kod samochodowy swojego kraju. Tak więc w przytoczonym tu adresie strony internetowej, „.ch” jest krajową domeną internetową przypisaną Szwajcarii w systemie DNS (ang. Domain Name System – system nazw domenowych). Podobnie rzecz ma się z domeną „.uk” w przypadku Anglii czy też „.it” w przypadku Włoch. Jako ciekawostka warto odnotować fakt, że większość osób, których adresy internetowe są zarejestrowane w Stanach Zjednoczonych, nie posługuje się kodem DNS przypisanym temu krajowi, czyli domeną internetową „.us”, co jest interpretowane przez wielu jako oznaka imperialistycznej arogancji owego państwa.
59 58
samo prostym, jak dostęp do nich. Pod tym względem był on wpływowym orędownikiem na rzecz transparentności, kooperacji i twórczej interakcji. Podobnie jak Aquarianie, postrzegał swoją działalność jako dar dla innych i oferował owoce swoich prac bezpłatnie, bez pobierania tantiem za wynalazki i patenty – co było równoznaczne z faktem, że dzięki temu każdy mógł rozbudowywać Sieć. Kilka lat później Marc Andreesen, wraz z grupą innych programistów, wprowadził do powszechnego użytku własną przeglądarkę o nazwie Netscape, co dało początek bańce internetowej, która miała miejsce w drugiej połowie lat 90. XX w. Okres bezkrytycznej euforii na światowych giełdach względem inwestowania we wszelkiej maści przedsiębiorstwa, których działalność była w jakikolwiek sposób związana z Internetem, objawił się powszechną gorączką bogacenia się na Sieci i przyznaniem Berners-Lee tytułu szlacheckiego Rycerza Orderu Imperium Brytyjskiego. Ponadto w tym czasie w pełni trzeźwo myślący ludzie poczęli twierdzić, że wynalezienie Sieci było przełomem znacznie większym niż odkrycie przez ludzkość ognia. Jakkolwiek nie byłoby przesadne owo stwierdzenie, nie ma cienia wątpliwości co do tego, że Sieć w ogromnym stopniu wpłynęła na proces przekształcania się maszyny generującej naszą kulturę. Przyznana w 1999 roku Złota Nike, najbardziej prestiżowa nagroda w sztukach medialnych, wzbudziła sporą kontrowersję, kiedy komisja sędziowska orzekła o przyznaniu jej jednocześnie informatykowi oraz systemowi operacyjnemu, który opracował. W jaki sposób i dlaczego członkowie jury dorocznego austriackiego festiwalu sztuki, technologii i społeczności elektronicznej Ars Electronica postanowili uhonorować Fińskiego informatyka, Linusa Torvaldsa, człowieka, który nigdy nie uważał się za artystę, jak też i jego twór Linux, będący właściwie zbiorem komputerowego kodu, a nie dziełem sztuki (to kwestia, do której powrócę pod koniec tego rozdziału)? Jury w swoim uzasadnieniu przyznania nagrody potwierdziło fakt zaistnienia tej rozbieżności, niemniej jednak argumentowała swoją decyzję tym, że jej zdaniem Torvalds, jego oprogramowanie oraz społeczność, która przyczyniła się do jego powstania, „dała początek swoistego rodzaju estetyce, określającej możliwość tworzenia czegoś w Sieci w sposób, który jest niebezpośredni, aczkolwiek w pełni zamierzony”24. Aby w pełni zrozumieć wkład, jaki Torvalds wniósł w mem partycypacji, należy ponownie zwrócić swoją uwagę na Plutokratów. W przeciągu pierwszych dwu powojennych dekad rozwoju informatyki, kiedy instytucje zaopatrywały się w komputery typu mainframe, produkowane przez firmy, takie jak IBM czy DEC, do oprogramowania stosowanego przez te maszyny dołączano pełną dokumentację kodu źródłowego. W tamtych czasach nie istniała zbyt szeroka gama programów użytkowych, a sami „użytkownicy” ograniczali się de facto wyłącznie do samych ekspertów i informatyków, w związku z czym, umożliwienie tym ludziom tworzenia własnego oprogramowania dla obsługiwanych przez nich systemów komputerowych było podejściem w pełni sensownym. Jednakże na przełomie lat 60. i 70. XX w. komputery i oprogramowanie zostały od siebie odseparowane, co przełożyło się na to, że programy komputerowe zaczęto traktować jako odrębny towar. Z czasem zaczęto traktować chronione patentem oprogramowanie jako jedyną opcję, która była dostępna większości użytkownikom: towar z ograniczoną możliwością jego redystrybucji, niejasny cyfrowy byt, do którego kodu
24
S. Chopra, S. Dexter, Decoding Liberation: A Philosophical Investigation of Free Software, Routledge, Londyn 2007, s. 81. Z pełną treścią uzasadnienia jury można zapoznać się na stronie Ars Electronica pod adresem: <http://90.146.8.18/en/archives/ prix_archive/prix_projekt.asp?iProjectID=2183>.
59
źródłowego nie było dostępu, oraz trwałe narzędzie, którego nie wolno było modyfikować. Zmiana taka była korzystna dla sprzedawców oprogramowania i niewątpliwie przyczyniła się do powstania (relatywnie) niezawodnych platform i programów komputerowych, które umożliwiły zarówno małym przedsiębiorstwom, jak i osobom prywatnym podążanie tropem wielkich instytucji w procesie digitalizacji swojej pracy i życia. W naturalnej tego konsekwencji zgromadzono i utracono wielkie fortuny. Niemniej jednak w latach 70. i 80. XX w. kilka kluczowych postaci, szczególnie takich jak Richard Stallman, pozostawało zdania, że wcześniejszy etos otwartego oprogramowania był czymś, co było warte kultywowania. Stallmanowi zależało na tym, aby rozszerzyć zakres więzi koleżeńskich, jaki panował w kręgach naukowych, i rozwinąć poczucie wzajemnej otwartości, jaką obserwowało się w środowiskach hakerskich. Dlatego też postanowił stworzyć nowy system operacyjny, który był zarazem kompatybilny z rodziną systemów UNIX, choć wyraźnie się od nich odróżniał, po czym udostępnił go innym podobnie myślącym programistom. W stylu charakterystycznym dla hakerów ochrzcił go mianem GNU (będącym skrótem od Gnu’s Not Unix – przykładem powszechnie stosowanego w żargonie hakerskim akronimu rekurencyjnego), zakładając w 1985 roku organizację Free Software Foundation (Fundacja Wolnego Oprogramowania), mającej na celu wspieranie Projektu GNU oraz współpracującej na rzecz informatycznej społeczności. W Manifeście GNU Stallman określił etos wolnego czy inaczej otwartego oprogramowania: 1. Masz prawo do użytkowania programu w dowolnym celu. 2. Masz prawo do modyfikowania programu tak, aby służył twoim potrzebom. (Aby prawo to sprawdzało się w praktyce, musisz mieć dostęp do kodu źródłowego, z racji na to, że przy braku dostępu do niego, modyfikowanie programu jest wyjątkowo trudne). 3. Masz prawo do redystrybucji kopii programu gratisowo lub za opłatą. 4. Masz prawo do rozpowszechniania zmodyfikowanych wersji programu, aby inni mogli czerpać korzyści z udoskonaleń, które do niego wprowadziłeś25.
Społeczność programistów i użytkowników systemu GNU składała się z ludzi zaangażowanych w ruchu otwartego oprogramowania, głośno manifestujących swoje dla niego poparcie oraz aktywnie na jego rzecz działających. Była to jednak społeczność stosunkowo mała, ograniczająca się do badaczy naukowych, garstki oddanych sprawie zawodowych informatyków, poświęcających się projektowi GNU w czasie wolnym od pracy, oraz hakerów zainteresowanych wolnym oprogramowaniem. Jednakże w 1991 roku młody fiński student radykalnie przeobraził krajobraz, w jakim wówczas odbywała się współpraca nad rozwojem wolnego oprogramowania26. Torvalds stworzył nowy system operacyjny, który nazwał Linux. Jego wielką innowacją było uświadomienie, że Internet zmieni praktycznie wszystko w zakresie tego, jak funkcjonuje społeczność 25
26
Zob. <www.gnu.org/gnu/thegnuproject.html>, oraz R.M. Stallman, Free Software, Free Society: Selected Essays of Richard M. Stallman, Free Software Foundation, Boston 2002; S. Williams, Free as in Freedom: Richard Stallman’s Crusade for Free Software, O’Reilly, Boston 2002. Zob. L. Torvalds, D. Diamond, Just for Fun: The Story of an Accidental Revolutionary, HarperCollins, Nowy Jork 2001.
61 60
skupiona wokół otwartego/wolnego oprogramowania. Torvalds udostępnił system Linux w taki sposób, jaki umożliwiał początkowo tysiącom, a wraz z rosnącą popularnością tej platformy, dziesiątkom tysięcy programistów, hakerów, hobbistów i wszelkiej maści innych twórców-użytkowników możliwość modyfikowania, usprawniania i rozbudowywania głównego systemu operacyjnego, który on pierwotnie stworzył. Przeprowadzone badania wykazały, że łączna ilość czasu poświęconego rozwojowi systemu Linux była równa miliardowi dolarów, przy czym koszt tych prac był minimalny lub prawie żaden27. Istniały powody ku temu, aby ta pozorna kultura darów, jaka powstała wokół Linuxa, obrała taką a nie inną ścieżkę rozwoju. Po pierwsze, Torvalds i grupa wczesnych entuzjastów jego programu pozostawała w ściśle ze sobą związanych relacjach. Po drugie, dzięki temu, że liczba osób zaangażowanych w dalszy rozwój systemu Linux była tak wielka – szczególnie w porównaniu z liczbą osób, którym był dany dostęp do zamkniętego kodu źródłowego komercyjnego oprogramowania produkowanego przez korporacje, takie jak Microsoft, HP, Apple, Sun i Oracle – stał się niezawodnym systemem operacyjnym, wolnym od usterek i błędów oprogramowania. Okazał się dzięki temu szczególnie użyteczny dla osób i grup administrujących serwery. Wszyscy przyjęli Linux z otwartymi rękami, począwszy od hakerskich odszczepieńców, przez korporacje, dla których niezawodność systemów komputerowych była priorytetowa, a kończąc na rządach takich krajów, jak Brazylia i Chiny, które nie chciały uzależnić się od rozwiązań oferowanych przez Microsoft. Istotne jest to, aby zrozumieć, jak wiele wnosi możliwość zaangażowania się szerokiej rzeszy ludzi w proces rozwoju otwartego oprogramowania. Informatyk Eric Raymond opisał oprogramowanie zamknięte (ang. closed source software) jako cyfrowy ekwiwalent średniowiecznej katedry – potężnej struktury wzniesionej przez Kościół i architektów, której budowa zajmowała całe wieki. Kontrastuje to z rynkiem oprogramowania otwartego (ang. open source software), który jest podobny do bazaru pełnego straganów, z rozłożonymi na stołach towarami, gdzie handlarze nieustannie przekrzykują się między sobą i targują ze swoimi klientami28. Katedra jest niewątpliwie olbrzymią i okazałą budowlą, ale jeśli cokolwiek popsuje się w jej konstrukcji, naprawienie błędu jest wtedy nie tylko trudne, ale i kosztowne. Przy czym jest możliwe, że nikt nie znajdzie wady w tym miejscu, w którym trzeba. Jednak w przypadku systemu Linux, wszelkie usterki niemal natychmiast stają się jawne, dzięki czemu szybko można je usunąć. Raymond wymyślił w związku z tym, zainspirowane postacią Linusa Torvaldsa, porzekadło: „Im więcej par oczu nań patrzy, tym bardziej banalne są błędy”. Nazwał je Prawem Linusa. W kręgach ruchu otwartego oprogramowania obserwuje się tendencję do pomijania różnic między projektowaniem programów komputerowych a tworzeniem innych dóbr kultury. Proces tworzenia oprogramowania jest oparty w dużej mierze na oscylowaniu między problemami a rozwiązaniami, błędami a poprawkami. Jest to dobre podejście, jeśli chodzi o usprawnianie oprogramowania i ulepszanie jego funkcjonalności, ale w sferze sztuki, muzyki lub literatury, procesy tworzenia, wartościowania i osiągania sukcesu toczą się innymi trybami. 27
28
Informatyk i socjolog Paul Dourish jako pierwszy opowiedział mi następujący dowcip: „Linux jest oprogramowaniem darmowym tylko wtedy, kiedy wartość twojego czasu równa się zeru”. E.S. Raymond, The Cathedral and the Bazaar: Musings on Linux and Open Source by an Accidental Revolutionary, MA: O’Reilly, Cambridge 1999. Tekst ten jest dostępny pod adresem <www.catb.org/~esr/writings/cathedral-bazaar/>.
61
Nie każdą sferę produkcji można usprawnić przez współpracę, podobnie jak nie każdą kwestię estetyczną można „rozwiązać” dzięki większej liczby patrzących na nią par oczu lub słuchających ją uszu. Opierający się na współpracy otwarty model produkcji kulturowej, za którego sztandarowy przykład może służyć ruch Creative Commons, co prawda wywodzi się z idei wolnego oprogramowania, mimo to różni się od niej zarówno w makro, jak i mikroskali. Jednakże dla naszych potrzeb, to właśnie model proponowany przez Creative Commons wnosi najwięcej do sfery udostępniania. Trzeba podkreślić również inną ważną kwestię: wolne oprogramowanie niekoniecznie musi być darmowe. Ani Stallman, ani Torvalds nie zabronili sprzedaży oprogramowania, które powstało na bazie ich oryginalnych koncepcji, a co więcej, firmom, takim jak Red Hat, na promowaniu i wspieraniu systemu operacyjnego Linux udało się zarobić całkiem niezłe pieniądze. Nieograniczony dostęp do kodu źródłowego, czyni oprogramowanie wolnym. Decyzja, co do tego, czy owo wolne oprogramowanie powinno być udostępniane za opłatą czy też za darmo, spoczywa w rękach programistów, którzy je stworzyli. W ciągu ostatnich kilku lat rozwiązania powstałe na kanwie otwartego oprogramowania GNU/ Linux poczęły coraz bardziej się rozwijać, stając się zarazem solidną, choć wciąż technologicznie onieśmielającą alternatywą dla chronionych prawami autorskimi rozwiązań oferowanych przez gigantów branży komputerowej, takich jak Microsoft czy Oracle. Tym samym oparty na współpracy i kooperacji system rozwoju oprogramowania okazał się modelem przynoszącym rezultaty mogące spokojnie konkurować z produktami wypracowanymi według ugruntowanych już modeli biznesowych zorientowanych na zysk. Wyszukiwacze: Larry Page, Sergey Brin i inni Nie czyń złego. Motto biznesowe Google Każda wystarczająco zaawansowana technologia jest nieodróżnialna od magii. Arthur C. Clarke
Po upływie ponad pół wieku odkąd na dobre rozpoczął się proces komputeryzacji kultury, jakakolwiek linearna narracja jego przebiegu, którą udało się tutaj nakreślić, na tym etapie rozwoju zaczyna się wyraźnie rozpadać. Analogię do pęknięcia bańki internetowej można odnaleźć w zgubnych dziejach przedsiębiorstw budujących linie kolejowe w Stanach Zjednoczonych pod koniec XIX wieku. Bankructwo wynikające z nieziszczenia się ich nierealnych wizji technologicznego rozwoju pozostawiło po sobie spuściznę dwojakiego rodzaju – jedną, której wpływ okazał się krótkotrwały, i drugą, której odciśnięte piętno było znacznie większe. Pierwsza dotyczyła zdefraudowanych i rozwścieczonych udziałowców. Większość z uczestników tej kolejowej gorączki, z wyjątkiem służących, ku przestrodze przykładów dużych graczy, którzy stracili na tym wielkie fortuny, była zapomnianymi już przez historię małymi płotkami w dużym stawie – ofiarami złego wyczucia ówczesnej rynkowej koniunktury. Drugą spuścizną owej bańki spekulacyjnej był zaś rozbudowany system linii kolejowych przebiegający przez cały kontynent północnoamerykański, dzięki któremu mogła powstać największa na całym ówczesnym świecie zunifikowana producencko-konsumencka sieć dystrybucji. Zaangażowani w budowę kolejowej infrastruktury przedsiębiorcy i inwestorzy
63 62
niewątpliwie utracili na tym grube miliony, ale dzięki ich wysiłkowi Stany Zjednoczone jako całość odniosły w wyniku tego niepomierną wręcz korzyść. Bańka internetowa doby Sieci 1.0 pozostawiła po sobie ogrom „ciemnego włókna” (ang. dark fibre – zapasowe włókno w kablu światłowodowym) obejmującego cały glob. Powstałą w okresie sieciowej hossy nadmiernie rozbudowaną przez firmy telekomunikacyjne infrastrukturę połączeń, znacznie obszerniejszą niż faktyczne było na nią zapotrzebowanie, już po krachu giełdowym, jaki nastąpił na początku nowego milenium, udało się wykorzystać innym do przeobrażania sposobu myślenia o Internecie oraz korzystania z jego zasobów i możliwości. Google, czyli algorytm wyszukiwania, który stał się nazwą firmy, a następnie przyjął się jako czasownik, jak żadne inne przedsiębiorstwo w namacalny sposób skorzystało na tej zmianie najbardziej. Samo słowo Google było celowym ortograficznym przekształceniem określenia matematycznego googol, oznaczającego jedynkę z dziesięcioma zerami (dziesięć do setnej potęgi). Firma ta stała się czymś na kształt sieciowej wersji mitycznego węża Uroborosa, obecnego w staroegipskich i greckich wierzeniach, pożerającego samego siebie i samoistnie odradzającego się tworu okrążającego cały świat. To, co powołali do życia współzałożyciele Google, Larry Page i Sergey Brin, jest maszyną bezustannie generującą innowację i pochłaniającą inne twórcze firmy z branży technologicznej. Motorem napędowym tej maszyny są zarówno sami użytkownicy, jak i reklamodawcy. Google rzuciło wyzwanie dawnym mistrzom, od Microsoft do Yahoo!, a rozwiązania technologiczne przezeń proponowane przesiąknęły dosłownie wszystko, od bibliotek po komputerowe pulpity, usidlając przy tym wszystkich od pornografów po kartografów i od antykorporacyjnych blogerów aż po dyrektorów wielkich korporacji. Jednakże, kiedy udało im się już tego wszystkiego dokonać, wskutek tej działalności zatarła się granica między symulacją a partycypacją, a ludzie poczęli kwestionować rzekome dobro stanowiące przesłanie motta biznesowego Google zakazującego czynienia zła. Aby móc w pełni zrozumieć fenomen Google, konieczne jest uświadomienie sobie, że ogromny sukces, który odniosła firma, nie byłby możliwy bez podwalin, jakie uprzednio położyli Gospodarze. W pierwszych kilku miesiącach po tym, jak w 1991 roku Berners-Lee zapoczątkował ogólnoświatową sieć World Wide Web, całość jej zasobów wynosiła zaledwie kilkaset stron, w pierwszych zaś kilku miesiącach po pojawieniu się przeglądarki internetowej Netscape w 1994 liczba stron w Sieci sięgała już kilku milionów. W tym samym roku dwaj studenci z Uniwersytetu Stanforda zapoczątkowali tworzenie katalogu o nazwie Przewodnik Internetowy Jerry’ego i Davida (ang. Jerry and David’s Guide to the World Wide Web), zawierający listę ich ulubionych stron istniejących wówczas w Sieci. W następstwie tej hobbistycznej działalności owi studenci, Jerry Yang i David Filo, stworzyli firmę Yahoo! W komercyjnej inkarnacji swojego pierwotnego przedsięwzięcia kontynuowali oni strategię „kuratorską”, klasyfikując różnego rodzaju portale i strony według określonych kategorii. Coraz gęstsza ilość treści zapełniająca stronę domową serwisu Yahoo! była logiczną konsekwencją stosowanego przez portal systemu organizowania informacji opartego na tworzeniu kategorii i podkategorii tematycznych, ułatwiających użytkownikom odnajdywanie interesujących ich zagadnień. Jednak już kilka lat później, kiedy to Page i Brin stali się studentami Stanford, zasoby Sieci w szaleńczym tempie zwiększały się z milionów do setek milionów, a następnie do miliardów i setek miliardów stron. Nieustannie rozrastający się natłok informacji sprawił, że potrzeba wyszukiwania i służące do tego celu wyszukiwarki internetowe stały się synonimem współczesności. Kluczowym elementem procesu przeszukiwania zasobów Internetu, na który zwrócił uwagę Page, był fakt,
63
że samo wyszukanie treści nie było wystarczające. Dla użytkownika liczyło się przede wszystkim to, na ile były trafne rezultaty wyszukiwania, w stosunku do faktycznego zapytania, które on wystosował. Istniało wówczas niewiele sposobów wykorzystywania możliwości obliczeniowych komputerów do tworzenia hierarchii ważności zasobów Sieci, a w roku 2000 ich liczba była już tak ogromna, że zatrudnianie jedynie ludzi do przekopywania się przez tą mnogość stron, stało się całkowicie niemożliwe. Idea Page’a polegała na tym, aby Sieć samoczynnie dokonywała „rankingu” swojej zawartości. Stworzył on w tym celu algorytm wyszukiwania wykorzystujący liczbę odnośników do i od konkretnej strony w celu określenia stopnia jej „użyteczności” dla internautów29. Dzięki nieugiętemu skupieniu na udoskonalaniu doznań i zwiększaniu wygody użytkowników, oraz swoim ciągle ewoluującym, zaawansowanym mechanizmom generowania zysków, Google w przeciągu pierwszej dekady swojego istnienia uzyskało pozycję bezsprzecznego lidera. Podobnie jak ma się to z innymi omawianymi wcześniej historiami, również wokół początków Google wykreowały się mity założycielskie. Pierwszym „aniołem biznesu” (ang. angel investor), czyli inwestorem przeznaczającym kapitał na finansowanie przedsięwzięć będących we wczesnych fazach rozwoju, był Andy Bechtolsheim, jeden z współzałożycieli firmy Sun Microsystems. Po zapoznaniu się z zaprezentowaną mu przez Page’a i Brina koncepcją proponowanego przez nich projektu, śpiesząc się na inne spotkanie, rzucił jedynie: „Zamiast omawiać teraz z wami wszystkie szczegóły, pozwólcie, że po prostu wypiszę wam czek” Opiewający na sumę stu tysięcy dolarów czek był wypisany dla Google Incorporated, czyli mającą osobowość prawną spółkę, która wówczas nie została powołana jeszcze do życia. Page’owi i Brinowi zajęło to kolejnych kilka miesięcy, zanim czek ten mogli zrealizować. Do tego czasu udało im się zgromadzić prawie milion dolarów na cele realizacji swojego przedsięwzięcia. Fakt, że partycypacja jest czymś, na co Google kładzie szczególny nacisk, jest rzeczą oczywistą, ale w epoce Sieci działalność firmy stanowi również jedno z głównych źródeł symulacji. Widoczne jest to w oferowanych przez nich komercyjnych rozwiązaniach naśladujących programy użytkowe tak, aby mogły być one obsługiwane przez internetowe przeglądarki. Przykładem tego jest serwis poczty elektronicznej Gmail, wzorowany na najlepszych elementach programów pocztowych typu Microsoft Outlook Express, który jako aplikacja internetowa umożliwia korzystanie ze wszystkich tych właściwości w Sieci. Na jeszcze szerszą, bo globalną, w jak najbardziej dosłownym tego słowa znaczeniu, skalę, sztandarowym metasymulacyjnym produktem firmy jest serwis Google Maps, odwzorowujący powierzchnię całej Ziemi zarówno kartograficznie, jak i fotograficznie. Przedsięwzięcia te w niezbity sposób dowodzą, że Google przyjął ideę symulacji jako element mający przyciągnąć użytkowników do wprowadzonego przezeń wzorca internetowego wyszukiwania i reklamy, który stanowi kwintesencję działalności tej firmy. 29
We własnych słowach firmy, zawartych w korporacyjnym dekalogu Dziesięć prawd potwierdzonych przez Google dostępnym na stronie <www.google.com/intl/en/corporate/tenthings.html>: „Opatentowany algorytm PageRank™ analizuje wszystkie witryny zawierające linki do określonej strony, i przypisuje im określoną wagę, częściowo w oparciu o ilość witryn zawierających linki do nich samych. Przez analizę pełnej struktury Internetu Google jest w stanie określić, które strony zostały »wybrane« najlepszymi źródłami informacji przez »głosujących« na nie użytkowników najbardziej zainteresowanych ich zawartością. Technika ta udoskonala się w miarę rozrostu zasobów Sieci jako że każda nowa witryna stanowi kolejny punkt odniesienia i kolejny głos do uwzględnienia”.
65 64
Zarówno estetyka tej witryny, jak i sposób funkcjonowania stosowanego przez nią modelu biznesowego, oraz forma, jaką przybrał jej korporacyjny wizerunek, było wynikiem wielu świadomych decyzji podjętych przez firmę. Przez długie lata strona domowa Google miała oszczędny, ultraminimalistyczny wygląd. Zawartość jej ograniczała się jedynie do pola tekstowego z widniejącymi poniżej niego dwoma przyciskami oraz znajdującym się powyżej logo firmy, którego podstawowy wygląd był zmieniany jedynie na czas kalendarzowych świąt czy innych wyjątkowych okazji, takich jak Prima Aprilis. Świadoma decyzja, aby ograniczyć liczbę widniejących na stronie głównej elementów do niezbędnego minimum, wyraźnie kontrastowała ze stroną domową Yahoo!, z całą jej mnogością kategorii, podkategorii i przesytem wszelkiej maści informacyjnych treści. Tempo wzrostu popularności Google zwiększało się proporcjonalnie do malejącego zainteresowania opcją oferowaną przez Yahoo!30. Kultura korporacyjna Google jest naznaczona naleciałościami mającymi swe korzenie w erze dotcomów: niemal żaden z pracowników nie nosi garnituru, a współzałożyciele firmy niezmiennie twierdzą, że jedyną istotną dla nich rzeczą jest wyszukiwanie. Googleplex, czyli mieszcząca się w Mountain View, w Kalifornii główna siedziba firmy, wyposażona jest w takie standardowe elementy, jak stoły do gry w piłkarzyki i bary przekąskowe, ale jest wzbogacona o dodatki w rodzaju lamp lava czy dużych, gumowych piłek do ćwiczeń. Dopełniającym całość, typowo kalifornijskim akcentem jest fakt, że szef korporacyjnej kafeterii gotował dla sztandarowego zespołu epoki hipisowskiej – „The Grateful Dead”. Jednakże dzięki nieustannemu dążeniu do pomnażania zysków, Google odniosło znacznie większy sukces, niż ten, który w swoich anemicznych próbach budowania własnej marki starały się osiągnąć dawno już odpadłe z rynkowej konkurencji firmy doby Sieci 1.0. Google, niezależnie od ideałów zawartych we własnym korporacyjnym motto nakłaniającym do nieczynienia zła, nie może nie prowokować pytań i wywoływać sprzeciwu. Z tej prostej przyczyny, że jest to korporacja o gigantycznych rozmiarach, przynosząca równie kolosalne zyski, której wszechobecność w Sieci jest wyczuwalna przy każdym kliknięciu myszką. „Darmowe” korzystanie z serwisów oferowanych przez Google jest możliwe dzięki reklamie. Wraz z rosnącym tempem swojego rozwoju Google stopniowo począł pochłaniać innych czołowych dostarczycieli treści ery Sieci 2.0. Przykładami tego typu akwizycji są między innymi stworzony w 1999 roku, a nabyty przez Google w 2003 roku, darmowy serwis blogowy Blogger, zapoczątkowany w 2005 roku, a przejęty przez rynkowego giganta rok później bezpłatny serwis wideo YouTube, a także będące liderami na rynku świadczenia usług reklamowych w Internecie firmy, takie jak powstały w 1996 roku, a zakupiony przez Google w 2007 roku Doubleclick, oraz działający od 2008 roku, a wchłonięty przez Google w 2011 roku, AdStars. Wszystkie powyżej przytoczone przykłady rynkowych posunięć Google świadczą o tym, że korporacja ta staje się udziałowcem funkcjonującym na niemal wszystkich frontach relacji między użytkownikami, reklamodawcami a dostarczycielami treści. W tym ostatnim przypadku odnosi się to w równym stopniu i do profesjonalistów, i do amatorów, jak też i osób oscylujących między tymi dwoma typami działalności lub funkcjonującymi całkowicie poza ich obrębem. Przy całym swoim zaangażowaniu w partycypacyjne aspekty Sieci 2.0 w rzeczywistości 30
Pojawienie się bardziej zatłoczonej i bogatej w treść, spersonalizowanej witryny iGoogle wskazuje na zmianę tego podejścia. Od 2008 roku górne menu strony głównej oferowało użytkownikom wybór między wersją iGoogle a jej uproszczonym, oryginalnym wariantem, czyli niezamierzenie śmieszną w celu kontrastu stroną domową „Classic Home”.
65
Google pozostaje jedną, wielką enigmą. Objęty prawem patentowym algorytm wyszukiwania, będący głównym mechanizmem działania ich wyszukiwarki, stanowi wyłączną własność intelektualną Google, a tym samym jest najściślej strzeżonym sekretem korporacji. Co więcej, nie jest dokładnie wiadomo, jaką liczbę serwerów używa firma, i gdzie na świecie są one rozlokowane. Pomimo że znajdowanie treści za pomocą wyszukiwarki Google jest bezpłatne, a generowane przez nią rezultaty zdają się wypełniać niemal wszystkie zakątki Internetu, sama korporacja jest jednak kompletnym zaprzeczeniem idei głoszonych przez ruch otwartego oprogramowania. Im bardziej Google staje się integralną częścią naszej codzienności, tym mocniej uwypuklają się związane z tą wszechobecnością potencjalnie problematyczne kwestie. Należą do nich: stronniczość, cenzura, a przede wszystkim płynące z działalności biznesowej materialne korzyści oraz to, kto i w jaki sposób na tym wszystkim najbardziej zyskuje. Im bliższe teraźniejszej chwili stają się tworzone na kanwie technologicznego rozwoju historie, tym większe istnieje niebezpieczeństwo, że ich autorzy mylnie uznają to, co jest ledwie przelotnym trendem, za coś nieprzemijającego. Przedkładając to, co pozornie nieistotne, lecz zdolne odcisnąć swe trwałe piętno, nad to, co pompatyczne, choć w ostatecznym rozrachunku całkowicie pozbawione znaczenia. Wydaje się mało prawdopodobne, aby przyszłe generacje oceniły dążenie do łączenia informacji, osób i treści medialnych we wspomagane technologią sieci wzajemnych zależności i obopólnego oddziaływania jedynie jako mało znaczący epizod w rozwoju ludzkości. W chwili nastania nowego milenium, memy symulacji i partycypacji splotły się ze sobą tak bardzo i rozpowszechniły drogą sieciową na skalę tak globalną, że ich uporządkowywanie i udostępnianie mogło być jedynym możliwym rozwiązaniem. Generacyjne narracje powstałe w pierwszym półwieczu istnienia komputera, jako maszyny generującej naszą kulturę, zaczęły się rozpadać dokładnie w tym momencie, kiedy partycypacja i symulacja stały się wszechobecne, przeistaczając się tym samym w kwintesencję unimodernizmu.
66
Postmediacje
Media wyobrażone Piotr Celiński
69
70
Skupię się na analizie jednego z wielu możliwych sensów powołanej na potrzeby tomu kategorii mindware. Interesują mnie potencjalnie przypisane do niej relacje zachodzące pomiędzy nowym – cyfrowym i sieciowym – porządkiem medialnym a sferą zbiorowej wyobraźni społecznej, kulturowej i komunikacyjnej. Dokonujące się przy okazji cyfrowej zmiany rozwarstwienie monolitycznej dotąd techniki na fizyczne oprzyrządowanie i „wirtualne” oprogramowanie podważa tradycyjny porządek medialny. Cyfrowość obala istniejące ekonomie, polityki, ideologie i estetyki powiązane z dominacją materialnych technologii medialnych. Przewodnią, referencyjną rolę w ich miejsce przejmuje nowa, „miękka” logika kulturowa wynikająca z natury cyfrowego kodu, wielokierunkowych i antyhierarchicznych relacji w ramach rizomatycznych sieci oraz postępującej cyfryzacji. W nowej medialnej ekologii centralne miejsce tradycyjnych, fizycznie namacalnych i regulowanych według znanych reguł narzędzi i maszyn medialnych zajmują organizowane według zasad matematycznych implementacje cyfrowego kodu. Zwrot ku komunikacyjnej i technologicznej emancypacji i supremacji software oraz cyfrowemu modelowi rzeczywistości kryje w sobie kulturowy paradoks. Oznacza triumf modernistycznej logiki instrumentalizacji i racjonalizacji techniki i jej dalszą emancypację z szeroko pojętego świata kultury. Jednocześnie cyfrowy kod i jego zaawansowane realizacje użytkowe w sposób nieoczekiwany udrożniają opuszczone mosty pomiędzy techniką i kulturą wybudowane jeszcze w kulturze tradycyjnej, przednowoczesnej. Dzięki software najbardziej wysublimowana technika sprzęga się na powrót z kulturową codziennością; z wpisanymi w nią pospolitymi imaginariami społecznymi, taktykami komunikacyjnymi i medialnymi wywodzącymi się z powszechnych habitusów i codziennymi rytuałami, mitologiami i zachowaniami. Najdoskonalsze wytwory techniki, jakimi są maszyny cyfrowe, które mają przede wszystkim naukowy i militarny życiorys, okazują się współcześnie bezbronne wobec działań zwykłych użytkowników. Czynią oni z nich media integralne, to znaczy zintegrowane z codziennością, tożsame z nią, a przynajmniej w znacznym stopniu nasączone ideami i wrażliwościami wehikuły kultury. Za ich pośrednictwem i jednocześnie wewnątrz ich form liberalizują i demokratyzują zakodowane w nowoczesnej, technopolowej mitologii i ideologii technokratyczne polityki, ekonomie i estetyki. Wobec takiej kondycji medialnego świata i jego odbudowywanych związków z zasobami kultury, sytuującymi się poza technopolowym układem, szczególną rolę do odegrania ma medialna wyobraźnia i podtrzymujące ją imaginaria. Ich kluczowa pozycja wynika z antropomorficznej ekwiwalencji tej sfery wobec imaginacyjnej (w nowomedialnej nowomowie posłużono się tu terminem wirtualna) natury operacji na kodzie cyfrowym, które regulują funkcjonalność hardware. Na symbolach cyfrowego kodu można wykonywać nieograniczone formalnie działania, tj. programować go według nieskończonej ilości wariantów algorytmicznych i reguł ciągów liczbowych. W związku z tym wyłaniające się z niego software’owe implementacje i interfejsy użytkowe można wstępnie określić w tym kontekście mianem mediów wyobrażonych. Nie waham się użyć wobec nowomedialnych praktyk takiego opisu przede wszystkim dlatego, że ich formy i języki wybiegają dziś daleko poza ustalone reguły elitarnej, technokulturowej gry polityczno-społecznej opartej na materialnych wytworach nowoczesnego przemysłu. Użytkownicy cyfrowych maszyn w praktyce mediacji i komunikacji czynią z nich na poziomie kodowania, ale i powoli na poziomie hardware, maszyny wyobraźni; wprowadzają do medialnego świata zasoby ludowe i ośmielają się na działania sprawcze, wobec których nie sprawdzają się oficjalne procedury i reguły, a jedynym ograniczeniem pozostaje właśnie
71
wyobraźnia. W ten sposób na stałe i w ramach bezprecedensowo skróconego cyklu na tle dotychczasowej historii technik medialnych wrażliwość i wyobraźnia technologiczna, kulturowa, społeczna i antropologiczna wpinają się w krwioobieg medialnego uniwersum i zasilają je swoimi zasobami, rekonstruując medialny krajobraz współczesności. Media rozwarstwione, które obnażają i rozbrajają się społecznie i kulturowo za sprawą zawiadującego nimi kodu, to media heterogeniczne, płynne i otwarte. Projekt cyfrowy i sieciowy to miejsce wkluczania dla wielu memów, mitów, logik semantycznych, wizualnych, aksjologii, polityk, ideologii – tekst do nieustannego czytania, pisania, uzupełniania i negocjacji; do wyobrażania sobie i realizacji w ramach codzienności. Kategoria mindware, niezależnie od toczącej się na łamach tego tomu debaty na temat jej semantycznej zasadności, precyzji i dyskursywnego potencjału, to narzędzie pojęciowe, za pomocą którego chciałbym wskazać na nierozpoznaną jeszcze dobrze, nienazwaną precyzyjnie, ale zyskującą na znaczeniu w obliczu rozwarstwienia technologii domenę medialnej wyobraźni i fundującego ją pluralizmu komunikacyjnych imaginariów. Sądzę, że za tymi pojęciami kryją się naturalne zasoby kultury postawionej w obliczu nowych technologii komunikacyjnych, nowych maszyn dialogu i regulujących je protokołów. Z nich skorzystamy w pierwszym rzędzie, starając się odnaleźć w świecie, w którym technologie medialne są dobrem powszechnym i oferującym bogactwo już istniejących i dopiero możliwych form i gramatyk użytkowych. Świadome czerpanie z nich to szansa na nową, społeczną ekologię mediów i komunikacji. Drugi stan skupienia Na początek warto bliżej przyjrzeć się wspomnianemu rozwarstwieniu techniki, bo doszło do niego na skutek wydarzeń, których inspiracje sięgają daleko w głąb historii. Cyfrowe kodowanie i strukturyzujące je oprogramowanie to nowy, właściwy nowoczesnym losom, stan skupienia techniki i jej mediów. Technika bowiem, będąc najważniejszym z instrumentów racjonalnej, ścisłej wiedzy i głównym motorem napędzającym nowoczesną emancypację, urbanizację, globalizację oraz rozwój społeczeństwa konsumpcyjnego stała się także jedną ze sfer zrekonstruowanych za sprawą kartezjańskiego dualizmu. Wraz z rozwojem projektu oświeceniowego oddziaływanie tego poglądu przybrało wiele różnych form i objęło całą domenę społeczną i kulturową, stając się referencyjnym markerem kondycji współczesności. Sądzę, że sens projektu cyfrowego to idealne wcielenie tej filozofii, jeden z emblematów emancypacyjnej dynamiki modernizmu. Kartezjańskie rozróżnienie w domenie techniki to właśnie jej rozwarstwienie i powstały w efekcie dualizm stanów skupienia hardware i software. Choć sprzęgnięte nierozerwalnymi więzami obie te techniczne warstwy rozwijają się coraz bardziej niezależnie, uniezależniają się od siebie. Powoli, ale systematycznie, zauważalna staje się przewaga imaginacyjnego kodu nad materialnym hardware. Hardware poddaje się jedynie ewolucji związanej z miniaturyzacją, zwiększaniem wydolności i pojemności ale na bazie uniwersalnej, i jak na razie niemającej alternatywy, koncepcji maszyny obliczeniowej. Software natomiast to dziewicze pole, na którym spotykają się doświadczenia kultury i techniki, matematyki i semantyki. Potencjał tej sfery jest olbrzymi – jako cywilizacja dopiero rozpoznajemy jego sens i inklinacje. O rosnącym znaczeniu miękkiej warstwy medialnego świata świadczą jednak już teraz choćby niewyobrażalnie szybko pęczniejące fortuny twórców software, takich jak Google, Microsoft czy Facebook. Potwierdzają to także diagnozy współczesnych medioznawców. Przykładowo Lev Manovich w tytule swojej ostatniej książki nie pozostawił wątpliwości, oprogramowanie
72
przejmuje kontrolę nad medialnym światem (Software takes command), tak jak niegdyś mechanizacja przejęła kontrolę nad terytorium techniki (Mechanization takes command)1. Rosnąca kulturowa przewaga znaczenia kodu nad materią przypomina emancypację z tradycyjnych ograniczeń nowoczesnego, samostanowiącego o swojej tożsamości podmiotu. Cyfrowość to jednocześnie scena urzeczywistnienie kolejnej nowoczesnej idei. Chodzi o rozpalające umysły ludzi renesansu, a później podjęte z jeszcze większym zapałem poszukiwanie racjonalnego języka opisującego świat i towarzyszące mu obmyślanie uniwersalnego kodu wiedzy o świecie i generującej go nauki (mathesis universalis). U podstaw tej idei leży wizja świata zakodowanego i odczytywanego za pomocą cyfr (perspektywa geometryczna w malarstwie i rzeźbie, zasada złotego podziału w typografii czy architekturze) i, tak jak one, poddającego się dekodowaniu/oddziaływaniu według wszelkich matematycznych prawideł; zawierającego się w ich ciągach. Przekonanie o matematycznym porządku wszechrzeczy legło u podstaw nowoczesności i w konsekwencji wytyczyło koleje rozwoju techniki i wszelkich jej pochodnych w tym okresie. W prostej linii idea ta wraz z narosłymi wokół niej praktykami społecznymi (rewolucja przemysłowa, urbanizacja, industrializacja) stały się elementarnymi składowymi genetyki nowych mediów i cyberkultury oraz naturalnym środowiskiem, w którym ten projekt mógł się rozpocząć i nabrać tempa. Do dziś myślenie w tym duchu stanowi zręb cybernetycznych imaginariów ojców-założycieli i technokratycznych zarządców cybernetycznego świata2. Sprzężenie techniki i wyobraźni Wspomniałem powyżej także o radykalnym skróceniu/przyspieszeniu cyklu wymiany i sprzężenia pomiędzy sferą miękkiej technologii a jej antropicznym ekwiwalencie, czyli sferą wyobraźni medialnej i komunikacyjno-kulturowej. Obecna postać tej zależności została wytyczona przez prędkość cyfrowych mediów. Ich naturalna software’owa płynność powoduje, że domagają się nieustannego zasilania zasobami spoza ich technologicznej natury. Jest to immanentna cecha techniki; jest ona jednym z wcieleń kultury, jej instrumentem i formą. Jednak praktyka software polega na radykalnym skróceniu obiegu wymiany pomiędzy techniką a tworzącymi ją ideami i wyobrażeniami. To, co możliwe w wyobraźni kultury, podlega w praktyce software błyskawicznej (względnie – w stosunku do stopnia sprzężenia wcześniejszych maszyn medialnych z kulturą i ich podatności na kulturową regulację) translacji do postaci wyrażeń matematycznych. Do takiego stanu rzeczy przyzwyczaili nas twórcy oprogramowania: to oni dyktują dziś tempo ewolucji hardware, pisząc aplikacje zbyt wymagające dla obecnych maszyn, projektując zupełnie nowe zastosowania dla obliczeń komputerowych czy tworząc nowe typy interfejsów użytkowych lub protokołów sieciowych, wymiany i organizacji baz danych, itd. Wpływ kartezjańskiego dualizmu i idea liczbowej uniwersalności świata to bodaj najbardziej znaczące siły, które powołały do życia miękką warstwę mediów. Jednocześnie wprowadziły – oto wspomniany wcześniej paradoks – do architektury technicznego uniwersum za pośrednictwem tej warstwy energię spoza istniejącego, nazywanego modernistycznym, układu sił. Do odcinającego 1 2
L. Manovich, Software takes command, 2008, lab.softwarestudies.com/2008/11/softbook.html; S. Giedion, Mechanization Takes Command: a contribution to anonymous history, Oxford University Press, 1948. Na temat aksjologii, wyobraźni, polityki i innych uwarunkowań towarzyszących rozwojowi projektu cyfrowego zob. np. J. Abbate, Inventing the Internet (Inside Technology), MIT Press, 2000.
73
się od mroków nieścisłej wiedzy i nieracjonalnych kompetencji, zakodowanego matematycznie, poddanego technokratycznej i industrialnej kontroli cyfrowosieciowego uniwersum wyemancypowani (dzięki tym właśnie procesom) użytkownicy za pośrednictwem software, tylnymi drzwiami, wprowadzają wypchnięte poza nowoczesny nawias pospolite wrażliwości, imaginaria, semantyki i praktyki kulturowe i wprzęgają je do technologicznych układów. Zasilają język mediów siłą kulturowej codzienności i ludowości, wyrastającymi ze zbiorowego ducha społeczności i ich potocznego, zawartego w mitach i codziennych praktykach, rozumienia świata wraz ze sposobami jego oswajania i życia w nim. Prędkość cyfrowości i jej otwartość ustanawiają natomiast nierozerwalne sprzężenie pomiędzy obecnym stanem wyobraźni komunikacyjnej i medialnej, wraz z ich imaginariami, a samą technologią. Powstaje w ten sposób homeostatyczne środowisko, w którym coraz trudniej odseparować od siebie wyobraźnię medialną od innych rodzajów kompetencji kulturowych; życie z mediami od życia poza nimi, wydarzenia od ich reprezentacji, itd. Sprzężenie to ma także społeczny wymiar. Technologiczne wyobraźnie i wyobrażenia, komunikacyjne habitusy i ideologie różnią się od oficjalnych, systemowo dystrybuowanych wraz z medialnymi maszynami nie tylko w taki sposób, w jaki racjonalna wiedza różni się od przesądów i mitów. Strategicznie opracowany polityczny kod mediów i hierarchiczne implementowane mity o regułach zdarzeń komunikacyjnych, które w krajobrazie mediów analogowych były nadrzędne wobec programów technicznych samych tych mediów – tak jak ideologie transmisji telewizyjnych czy mitów kinowych mają większą siłę oddziaływania społecznego niż gramatyka kamery, montażu, formatu obrazu – napotykają w związku z tym na taktyczny opór/dekonstrukcję ze strony swoich współczesnych odbiorców. Odbiorcy ci (przywołuję tu diagnozy dotyczące semantycznych wojen w kulturze masowej) rozbrajają je, dekodują w praktyce codzienności. W taki sposób na komunikacyjnym znaczeniu w domenie technologicznej zyskuje obszar zbiorowej wyobraźni komunikacyjnej i medialnej, wynikające z niego wrażliwości i habitusy, kompetencje i gesty, mitologie i estetyki3. W swojej słynnej diagnozie współczesności z lat 90. ubiegłego wieku Neil Postman sugestywnie dowodził tezy o triumfie techniki nad kulturą. Pisał o podporządkowaniu życia społecznego technokratom, którzy kontrolują je dzięki dostępowi do techniki, autorytarnej kontroli jej wytwarzania, reglamentacji dostępu do niej i ideologizacji społecznego wykorzystania. Patrząc z perspektywy zaledwie 30 lat powszechnej (Zachód) historii rozwoju i upowszechniania cyfrowych maszyn połączonych w komunikacyjne sieci, widać, że supremacja technopolu na tym polu traci twardy grunt pod nogami. Została podważona na skutek nasilających się taktyk „wirusowania”, „hackowania”, „piratowania” i „otwierania” zwykłych, emancypujących się dzięki tym maszynom, użytkowników – niegdysiejszych konsumentów i ich współtwórców – niegdysiejszych biernych odbiorców. Można, parafrazując konstatację Postmana, orzec, że w ramach postępu projektu cyfrowego kultura coraz skuteczniej odbija utracone pozycje na granicy z imperium technologii. Siłą kulturowych mitów, wrażliwości i praktyk zwykłych ludzi coraz bardziej świadomie i krytycznie przedostających się do tworzonych przez nich powszechnie elementów software i hardware triumfuje nad strategicznymi ideologiami i programami technopolu.
3
Na temat strategii i taktyk zob. szerz. M. de Certeau, Wynaleźć codzienność. Sztuki działania, Kraków 2008; a także M. Gardiner, Critiques of everyday life, Routledge, 2000; L. Manovich, The Practice Everyday of (Media) Life, 2008, manovich.net/DOCS/ manovich_social_media.doc.
74
Medialne wyobraźnie i imaginaria W drugiej części artykułu podejmę się teoretycznego opisu medialnej wyobraźni i medialnych imaginariów. Następnie przejdę do demonstracji mediów wyobrażonych. Warto zatem sprawdzić, jak można definiować medialną wyobraźnię i wytyczające jej kształty medialne i komunikacyjne imaginaria. Stwierdziłem, że dla kondycji medialnych światów sferę wyobraźni można uznać za istotną, a dla cyfrowości za kluczową. Jej znaczenie, zarówno na poziomie zbiorowym, jak i indywidualnym, wynika z faktu, że funkcjonuje jako antropologiczny, społeczny i kulturowy ekwiwalent wobec użytkowej gramatyki zakodowanej w formach technologii. Dzięki niej jednostki i zbiorowości oswajają, nadają sensy i operacjonalizują maszyny medialne. Przekładają je na idee i/lub wcielają dzięki nim idee w życie. Spotykają się tu i remiksują zinternalizowane wyobrażenia i idee z percypowanymi ze świata technologii odpowiednikami. Stan tej wyobraźni na poziomie społecznym nie jest jednolity. Ścierają się w niej różne wyobrażenia (imaginaria) i wrażliwości, które sprzyjają powstawaniu różniących się znaczeń i wywołują odmienne skutki. Stan ten nie ma wyjątkowego znaczenia w obliczu homogenicznego technologicznie i strukturalnie dominium technologii masowych, towarzysząca bowiem im wyobraźnia jest zaprogramowana przede wszystkim w trybie odczytania i interpretacji. Dopiero w obliczu rzeczywistości cyfrowej i sieciowej staje się najważniejszym narzędziem homo communicans. Projekt cyfrowych technologii jest bowiem heterogeniczny/ liberalny formalnie, a w zasadzie skazany na nieustanną wewnętrzną rekonstrukcję i płynność. Wynika to z zasady cyfrowego kodu, którego ciągi permanentnie stabilizują i uobecniają stany poddanych mu cyfrowych maszyn, interfejsów i języków programistycznych. W obliczu cyfrowych mediów nie można liczyć na stabilizację w żadnym z tradycyjnych wymiarów medialnego pola sił – zmienne są tu reguły polityczne, społeczne, ekonomiczne, kulturowe, a nawet związane z ustalonymi raz na zawsze, jak mogło się dotąd wydawać, euklidesowymi warunkami stanowiącymi czasoprzestrzeń. Dlatego właśnie można uznać, że projekt nowych mediów i łączących je sieci jest projektem otwartym, znajdującym się w trakcie nieustannej rekonceptualizacji i negocjacji kulturowej i w sposób niespotykany dotychczas uwikłany w warunki antropologiczne, behawioralne, psychologiczne podmiotu. Tak jak on sam stał się samoświadomy nowoczesności, wyemancypowany i nomadyczny, takie stały się również towarzyszące mu technologie mediów. Rozwarstwione domagają się nieustannej uwagi, zaangażowania. W ten sposób sprzęgają się z ludzką wyobraźnią, odwołując się do jej prymarnego usytuowania wobec medialnych i komunikacyjnych gestów, idei, estetyk, polityk. Jak współczesne technologie medialne okazują się najbardziej zaawansowanymi, integralnymi maszynami, tak i od każdego domagają się równie integralnego, głębokiego zaangażowania. Dzięki temu sprzężeniu spójność medialnych mitologii, idei, estetyk z pozostałymi wymiarami życia społecznego, komunikacji, wrażliwości, itd. jest bezprecedensowa. Diagnozy nauk humanistycznych i społecznych zaczęły rozpoznanie interesującej sfery i w przeciągu ostatnich 30 lat zaproponowały własne pojęcia opisujące ją i operacjonalizujące. W latach 80. XX w. politolog Benedict Anderson4 pisał o społecznościach i społeczeństwach wyobrażonych, które funkcjonują równolegle do tych faktycznych na skutek osłabienia w ramach nowoczesności tradycyjnego społecznego hardware: monarchii dynastycznej, wspólnotowości 4
Zob. polskie wydanie: B. Anderson, Wspólnoty wyobrażone: rozważania o źródłach i rozprzestrzenianiu się nacjonalizmu, Kraków 1997.
75
religijnej, czasoprzestrzeni, państw narodowych i związanej z nimi tożsamości wspólnotowej. W miejsce tych twardych regulatorów pojawiają się mity i wyobrażenia mniejszej skali, które objawiają się w społecznym dialogu samostanowiących jednostek i zbiorowości i regulują kształt zbiorowego życia. Humaniści dysponują obszernym zbiorem kategorii pojęciowych, które są pochodnymi do kierunku myślenia, podjętego przez Andersona. Zawierają w sobie interesującą mnie wyobraźnię medialną jako jeden z elementów składowych wyobraźni zbiorowej lub pozostają wobec niej w relacjach bliskoznaczności. Za podobnymi kategoriami kryją się poszukiwania odniesień w przestrzeni semiotycznej: języku, znakach, znaczeniach i ich nieustannej fluktuacji w praktyce społecznej; a także dyskursywna reakcja na dynamikę takich zjawisk kulturowych, jak technopol, kultura wizualna, kultura uczestnictwa. Zarysowany powyżej miękki i efemeryczny wymiar życia społecznego i kultury został odkryty dla nauki za sprawą zwrotu lingwistycznego. W odczytaniu jednego z najbardziej znanych i uznanych socjologów współczesności, Pierre’a Bourdieu, na zbiorową wyobraźnię składają się relacje pojedynczych habitusów, czyli uwewnętrznionych struktur wiedzy i szeregu zależnych od nich dyspozycji wyobrażeniowych i praktycznych, które wykorzystuje się jako fundamenty myślenia i działania. Kanadyjski socjolog kultury, Charles Taylor, jako imaginaria społeczne określał towarzyszącą nowoczesnej moralności samowiedzę społeczną, wynikające z niej praktyki, perspektywy i oczekiwania, które rzadko bywają artykułowane bezpośrednio. Stanowią one coś w rodzaju współdzielonych wyobrażeń i odniesień konstytuujących wspólnotę i wytyczających kształty życia zbiorowego. Z kolei jeden z najczęściej przywoływanych antropologów zajmujących się kategorią globalizacji, Arjun Appadurai, wskazał na obecność i przenikanie się wewnątrzzbiorowej wyobraźni konstytuujących ją sfer. Według niego są to globalne „krajobrazy”: medialny, technologiczny, etniczny, finansowy i ideowy. W ich wzajemnym przenikaniu się rozwija i utrwala się społeczna i kulturowa wiedza nowoczesnych społeczeństw, która wybiega dzisiaj daleko poza tradycyjne granice państw, systemów kulturowych i społecznych, kontynentów. Dla zanurzonych w tych krajobrazach mają one charakter przede wszystkim imaginacyjny, a dopiero później się materializują. Służą jako symboliczne konstrukcje strukturalne wyznaczające punkty odniesienia w indywidualnym konstruowaniu obrazów świata5. Jeśliby uznać zaproponowane przez Appadurai krajobrazy za moduły kulturowo-społecznej wyobraźni, to trzeba się także z nim zgodzić, że to właśnie medialny i technologiczny pośród nich wszystkich osiągnęły współcześnie w tym imaginacyjnym amalgamacie kluczową pozycję. W nowoczesnej zbiorowej wyobraźni miejsce wyobrażeń technologicznych i medialnych jest tak ważne jak siła rewolucji przemysłowej, urbanizacji i industrializacji dla ostatnich 300 lat cywilizacji zachodniej. Jak techniczno-przemysłowa energia zasiliła jej historyczną dynamikę w ramach projektu nowoczesności, tak i w zbiorowej wyobraźni współczesności zasadniczą rolę odgrywają imaginaria techniczno-medialne. Obejmują one zarówno rozumienie programów zakodowanych w technologiach komunikacyjnych, jak i próby tworzenia własnych ich wersji, dotyczą usytuowania i roli techniki w ogóle, a szczególnie pozycji i roli technologii medialnych. W tej imaginacyjnej przestrzeni rodzą się i są poddawane nieustannej weryfikacji komunikacyjne reguły i procedury, wynika z niej (choć nie tylko z niej) wrażliwość 5
P. Bourdieu, Dystynkcja. Społeczna krytyka władzy sądzenia, Warszawa 2006; Ch. Taylor, Modern Social Imaginaries, Duke University Press, 2004; A. Appadurai, Nowoczesność bez granic. Kulturowe wymiary globalizacji, Kraków 2005.
76
komunikacyjna i komunikacyjne habitusy. To instancja, w której są wartościowane i prześwietlane zakodowane w technologiach ideologie, obalane i przetwarzane mitologie, podejmowane decyzje związane z ich estetyką i interfejsami. Imaginaria sieci i sieci wyobraźni W wewnątrzmedialnej i komunikacyjnej wyobraźni rodzą się, podlegają weryfikacji, a następnie upowszechniają imaginaria. Szczegółowe rozpoznanie ich pochodzenia i wzajemnych relacji współczesnych zaproponował francuski socjolog mediów Patrice Flichy w swoich pracach na temat Internetu. Francuz rozumiał medialne wyobrażenia i budowane na ich podstawie zbiorowe wyobraźnie jako integralną część systemu techniki. Nowe rozwiązania technologiczne dostają się w pole oddziaływania społecznego i kulturowego, stają się fragmentem złożonej i płynnej architektury powiązań pomiędzy już istniejącymi a potencjalnymi technikami. Wpadają jednocześnie w wir dyskursów, ideologii, polityk i ekonomii, które sytuują i podtrzymują technikę w ramach uniwersum społecznego. Technika i jej poszczególne wytwory nie istnieją poza takim umocowaniem – w ten sposób Flichy podjął krytykę technocentrycznych, z jednej strony, i socjocentrycznych, z drugiej, teorii i perspektyw rozumienia mediów dominujących współcześnie w dyskursach nauk humanistycznych i społecznych. Według francuskiego socjologa jakiekolwiek próby konceptualizowania techniki poza uniwersum kulturowym są – szczególnie w domenie „wirtualizujących się” technologii cyfrowych i sieciowych – zawsze obrazem szczątkowym, partykularnie nieprawdziwym. Według badacza Internet jest najbardziej ewidentnym dowodem potwierdzającym tezę o zasadniczym wpływie wyobraźni medialnej na kształty, które przybierają media w otoczeniu kulturowym i praktyce społecznej. Zetknięcie nowo powstającej technologii z imaginariami i budowanymi na ich podstawie scenariuszami owocuje unikalną trajektorią cywilizacyjną tego medium, powoduje, że nie jest możliwe ani zaprogramowanie jednolitego dla niego programu, ani jego linearne egzekwowanie według określonego scenariusza w domenie publicznej. W ciągu krótkiego okresu Internet okazał się podatny na radykalne w swej naturze i odmienne od siebie scenariusze kulturowe (ludowa sfera publiczna), polityczne (doskonałe wcielenie technopolu) i społeczne (wirtualne społeczeństwo) wdrażane przez różne grupy zaangażowane w rozwój tej technologii. Wiele tych implementacji zmieściło się w pojemnym semantycznie zbiorze znaczeń właściwych tej technologii, przekłada się na współistniejące obok siebie – naturalnie w różnych pomiędzy sobą relacjach – jego oblicza, interfejsy i programy. Tym właśnie różnią się nowe media od ich analogowych poprzedników, którym nie można było – ze względu na ich techniczny charakter – przypisać różnych społecznych oblicz z łatwością, jaką oferuje kod cyfrowy. Łatwość przypisywania i ścieranie się imaginariów medialnych w rzeczywistości mediów cyfrowych i zsieciowanych ma także dodatkowe znaczenie. Po raz pierwszy na taką skalę – z pominięciem tradycyjnych ograniczeń geograficznych, kulturowych, społecznych czy politycznych – cyfrowe technologie umożliwiają utrwalanie i wykorzystywanie powstających poza tradycyjnymi podmiotami zarządzającymi losami technologii mitologii, wyobrażeń, ekologii i estetyki. Media cyfrowe połączone w pracujące w czasie realnym sieci to przestrzeń zbiorowej i zsieciowanej inteligencji społecznej (collective i connected intelligence), miejsce objawiające potencjał wielostronnej i wielokierunkowej komunikacji różnych podmiotów życia społecznego. Dla zbiorowych imaginariów medialnych to sfera naturalnego wzrostu i przenikania – sieć wyobraźni, która stymuluje i utrwala/mnoży unikalną na tle historii mediów nowoczesnych wyobraźnię sieci.
77
Imaginaria interfejsów Przykłady ideologizowania cyfrowych rozwiązań są dostępne w kontaktach z cyberkulturą na każdym kroku. Zapisane w technologiach cyfrowych mity, idee, imaginaria mają różny zasięg i różną siłę sprawczą – na te najbardziej doniosłe, które wytyczały i wytyczają generalne sensy związane z rozwojem Internetu, wskazał Patrice Flichy. Nie trudno jednak o przykłady sporów i debat o mniejszym zasięgu i wpływie na losy cyfrowych rozwiązań technologicznych. Dobrym przykładem ilustrującym rynkowe przepychanki wokół interfejsu komputera osobistego, który w powszechnym odbiorze jest uznany za najważniejszą z form cyfrowej rewolucji, jest jedna z kampanii marketingowych zrealizowana przez wiodącego producenta hardware i software – firmę Apple. W tej jednej z najgłośniejszych w dziejach cyberkultury kampanii reklamowych bohater symbolizujący nową „filozofię” komputeryzacji staje naprzeciwko bohatera reprezentującego odchodzącą do lamusa historii medialnej kultury epokę Personal Computer. Pierwszy bohater jest pełen młodzieńczego luzu i dystansu, interesuje się cyfrowym życiem jako przestrzenią realizacji swoich codziennych pragnień, hobby. Komputer jest mu potrzebny nie tylko jako narzędzie służące do pracy, ale przede wszystkim jako medium pośredniczące w rozrywce, życiu towarzyskim i wspomaganiu spraw osobistych. Piękny przedmiot pożądania, ekskluzywny gadżet, który ta postać reklamuje, ma być ikoną nowego, cyfrowego, toczącego się w Sieci stylu życia. Postać grająca przestarzały komputer osobisty jest ociężała, nie dba o estetykę, nie potrafi cieszyć się z życia, jest arogancka i pretensjonalna. Prezentacja tego profilu została przygotowana na podstawie interpretacji, w myśl której dotychczasowy rozwój techniki komputerowej służył w przeważającej większości zastosowaniom ściśle technokratycznym – komputer miał być przede wszystkim wydajnym narzędziem pracy, godną zaufania, ale pozwalającą się kontrolować maszyną obliczeniową. Wszelkie pozostałe jego funkcje to jedynie niepoważne dodatki do tej dziejowej misji. Z tych pozycji komputery mają przejść do roli przyjaciół zwykłego człowieka. Powinny towarzyszyć mu w codziennych czynnościach, wspomagać w pracy i życiu osobistym. Jednocześnie mają być piękne i spełniać funkcje symboliczne, zgodnie z prawem „pokaż mi swój sprzęt, a powiem ci, kim jesteś”6. W taki sposób koncern Steve’a Jobsa skutecznie odwołał się do elementów społecznej wyobraźni i zapisanej w niej mitologii towarzyszącej cyfrowym maszynom. Nie ma w niej miejsca na wizje technokratów, naukowców, inżynierów i handlowców – komputery weszły na stałe w kulturowy krajobraz współczesności i po przyjacielsku towarzyszą zwykłym ludziom w ich życiu. Jest to jedna z bardziej wyszukanych i eleganckich opowieści o zmianie kulturowej i społecznej, która dokonuje się w przestrzeni nowych mediów. Dwa alfabetyzmy Zanim przejdę do analizy przykładów przedstawiających przenikanie medialnych wyobraźni i wyobrażeń do kulturowych praktyk, form i języka cyfrowych technologii, zatrzymam się jeszcze na chwilę nad generalnym stanem medialnej wyobraźni. Oprócz regulujących ją w mniejszym i większym zakresie różnych imaginariów definiują ją także przewartościowania i generalne ruchy tektoniczne związane z równie generalnymi ruchami tektonicznymi w medialnym krajobrazie na skutek pojawienia się w niej cyfrowości. 6
Kampania „Get a Mac” zrealizowana przez Apple w latach 2006–2009. Zob. www. adweek.com/adfreak/apples-get-mac-complete-campaign-130552.
78
Wyobraźnie medialne nie tylko konstruują w ramach skróconego obiegu wymiany rzeczywistość technologiczną kultury. Ich siła sprawcza oddziałuje także na kulturowe reguły obcowania z mediami i wykorzystywania ich. W literaturze antropologicznej i medioznawczej są one definiowane za pomocą kategorii alfabetyzmów (media literacies)7, czyli wrażliwości i kompetencji komunikacyjnych. Na poziomie wyobraźni zbiorowej alfabetyzm to zdolność społeczności, kultury do rozumienia dostępnych narzędzi medialnych i zbiór umiejętności do posługiwania się nimi. W skali jednostkowej oznacza indywidualne kompetencje do posługiwania się technologiami komunikacyjnymi i sprawność w konstruowaniu zdarzeń komunikacyjnych przy ich wykorzystaniu i pośrednictwie. Urzeczywistniane w domenie mediów cyfrowych wyobrażenia i wyobraźnie sprzyjają dualizmowi alfabetyzmów. Dominujący obecnie alfabetyzm analogowy ustępuje przed rodzącym się kompetencjom cyfrowym i stojącym za nimi wyobrażeniom, estetykom, politykom, itd. Pierwszy jest związany z wieloletnią (od czasu maszyny Gutenberga) dominacją analogowego porządku mediów masowych i towarzyszącej im hierarchicznej, masowej kultury biernej konsumpcji i stanowi kulturową matrycę służącą do ich obsługi i wykorzystania. Odnosi się w przeważającej mierze do zdolności czytania medialnej logiki i transportowanych za jej pomocą ideologii i estetyki, sprzyja lokalizacji zdarzeń komunikacyjnych w strukturze postfeudalnej hierarchii społecznej i kulturowej. Odnosi się zatem do podziałów na elity i lud, na dysponentów technologii i mediów oraz ich odbiorców, na producentów/sprzedawców i konsumentów. Powstające w obliczu mediów cyfrowych kompetencje wymykają się tym dualizmem. Nowe media spełniają jednocześnie funkcję tradycyjnego oprzyrządowania do czytania (jak to nazwał L. Lessig – read only media) i nowatorskiego wehikułu służącego do pisania medialnego świata (read and write media), oferują tradycyjny download spreparowanych uprzednio elementów medialnego uniwersum ale i upload unikalnych zasobów powstających poza tradycyjnymi medialnymi instytucjami i logikami (P. Lunenfeld)8. Oferują także wiele strategii pośrednich, mieszczących się po części zarówno w logice odbioru, jak i nadawania, których obecność i znaczenie pojawiają się na styku ścierających się i zachodzących na siebie alfabetycznych kontynentów. Analogowa wyobraźnia komunikacyjna pracuje w trybie read-only i w jakiejś mierze, niemal wyłącznie na poziomie semantyki medialnych przekazów, umożliwia remiks (grę, zestawienie, płynność). Natomiast cyfrowo-sieciowa wyobraźnia oferuje tryb write-and-read. Kondycja ta oznacza domyślny tryb remiksu; nieustanne projektowanie i zestawianie medialnych fragmentów w narracje, permanentną cyrkulację zasobów łączących się według różnych kryteriów i w ten sposób otwiera drogę do w pełni heterogenicznych, programowalnych światów medialnych. Oznacza także zestawianie i remiksowanie elementów kompetencji medialnych z wieloma innymi kompetencjami z różnych zakresów naszego bycia w świecie – w ten sposób praktyka mediów cyfrowych i sieciowych jest bliższa pozostałym sferom naszych zwykłych aktywności, a pośród nich także tych komunikacyjnych, ale pozamedialnych, niezapośredniczonych. Czyni z medialnych doświadczeń, wyobraźni i gestów przestrzeń integralnie powiązaną (zlinkowaną) z dotąd niemedialnymi i nielokującymi się poza sferą komunikacyjną (lub w ograniczonym zakresie) praktykami i stanami wyobrażonymi kultury. 7 8
Zob. na ten temat np. P. Flichy, Understanding Technological Innovation: A SocioTechnical Approach, Edward Elgar Publishing 2007; tegoż, Internet Imaginaries, MIT Press, 2008. P. Lunenfeld, The Secret War Between Downloading and Uploading: Tales of the Computer as Culture Machine, MIT Press, 2011.
79
Nowe alfabetyczne zdolności i kompetencje rodzą się także w zderzeniu z niejasną naturą ontyczną cyfrowych tworów. Na styku analogowego i cyfrowego, którego emblematem jest relacja pomiędzy hardware a software, pojawia się stan, który Peter Weibel określił mianem kondycji postmedialnej. Zintegrowana z kulturą i błyskawicznie przekładająca się na medialne kształty wyobraźnia okazuje się pomocna we wchodzeniu w kondycję podwójnego stanu skupienia mediów, by chwilę później podpowiedzieć, jak należy się w nowym medialnym otoczeniu zachowywać – co i jak z cyfrowymi technologiami robić, jak się komunikować i mediować. Zestawia ze sobą materialność medialnych bytów kultury analogowej z ograniczoną i skomplikowaną perceptualnie bytnością cyfrową, realizującą się zawsze jedynie pośrednio na ekranach, łączach, interfejsach i w protokołach hardware. W taki sposób na styku szelfów technologicznych porządków medialnych powstają nowe kulturowe matryce komunikacyjne i medialne. Wspomniałem tu jedynie o dwóch generalnych osiach dynamizujących nasze medialne wrażliwości i kompetencje, które postrzegam jako epicentrum wielu innych dokonujących się w tym zakresie zmian. Z ich zderzenia wynikają choćby takie zmiany, jak debata nad prawami autorskimi i sposobami wymiany zasobów kultury (ostatnio spór wokół ACTA, SOPA, PIPA), nowe reguły dotyczące edukacji i organizacji systemu szkolnictwa (e-learning). Wyobraźnie wcielone Powyżej naszkicowałem mapę pojęć i odniesień, które wiążę z przestrzenią medialnej wyobraźni. Teraz skupię się na wybranych przykładach, które obrazują implementacje medialnych wrażliwości i imaginariów – będę analizował byty i praktyki kulturowe, które określam mianem mediów wyobrażonych. Sądzę, że biorąc pod uwagę różnice pomiędzy software i hardware, warto wyróżnić tu dwie taktyki. Hardware i jego ewolucja poddaje się logice uwolnionej od więzów kultury masowej i biernej konsumpcji w znacznie mniejszym stopniu niż software. Jednocześnie to w obszarze hardware wyobrażonego widać pęknięcia w technologicznym monolicie kultury masowej. Zasadniczą strategią kulturową, możliwą do realizacji w obszarze hardware, jest – związany z ograniczeniami wytwarzania i obiegu materialnych podzespołów – remiks, klonowanie i hacking. Tymczasem w przestrzeni software tradycyjne ograniczenia materii i rządzących nią praw nie mają decydującego znaczenia. Oprogramowanie jest bezpośrednią pochodną imaginacyjnej natury cyfrowego kodu i wszelkich matematycznych, logicznych i estetycznych reguł. Jest w związku z tym projektem płynnym, który nie może zostać ukończony (tak jak niemożliwe jest doprecyzowanie w ramach istniejącej wiedzy matematycznej wartości Π i innych wartości w ramach dostępnego współcześnie kodu, np. wyniku dzielenia 10 przez 3) i który, właśnie z tego powodu, jest najbardziej reprezentatywny dla współczesnych medialnych wyobraźni i imaginariów. Jest z nimi najbardziej ściśle zintegrowany, czy też, jak to określił Lev Manovich, „głęboko zremiksowany”9. Hardware Jak wspomniałem, warstwa hardware w obliczu nowej wyobraźni medialnej staje się obszarem upłynniania i remiksu. Popularną praktyką są tu działania polegające na ulepszaniu czy modyfikowaniu dostępnego oprzyrządowania, takie jak tweaking, tuning, cracking, oraz generowaniu i wymianie wiedzy 9
Zob. L. Manovich, Deep remixability, Piet Zwart Institute 2005, http://remixtheory. net/?p=61.
80
i zasobów pozwalających na takie modyfikacje w ramach społeczności online. Wraz ze wzrostem wiedzy i świadomości technologicznej (techniczna emancypacja) możliwe i popularne stało się także majsterkowanie (na zasadzie aktywności technologicznych poza oficjalnym systemem dystrybucji i kontroli rynkowej) alternatywnych rozwiązań technologicznych. Pojawiają się one jako uzupełnienia obecnego, zmonopolizowanego przez rynek, krajobrazu medialnego, ale także jako technologiczne alternatywy wobec dostępnych rozwiązań. Podejmowanie tego typu działań bierze się po części z niezadowolenia z oferty rynkowej – ceny, funkcjonalności, parametrów, warunków użytkowania, ale i z pobudek światopoglądowych, ideologicznych, społecznych i politycznych. Zainteresowani technologiami na własny użytek wiążą z nimi odmienne wartości, mitologie, estetyki i praktyki użytkowe. Znajdują dla istniejących rozwiązań i towarzyszących im semantyk nieoczekiwane tryby, zastosowania i reguły użytkowe. Wraz z ich działalnością pluralizuje się społeczna domena technologii z ich ekologią, ekonomią i potencjałem semantycznym. Zrób to sam W ciągu ostatnich kilku lat trzem nauczycielom i fanom majsterkowania pracującym w Mediolanie – Gianluce Martino, Massimo Banziemu i Davidowi Cuartielles – przy użyciu podzespołów elektronicznych udało się samodzielne zaprojektować i wprowadzić do społecznościowego obiegu globalnej społeczności fanów mediów uniwersalny kontroler cyfrowy, który nazwali Arduino. Zdecydowali się na ten krok, poszukując taniego, prostego w obsłudze i zdolnego podołać wielu powszechnym zadaniom stawianym przed maszynami cyfrowymi narzędzia. Ponieważ nie udało im się znaleźć odpowiedniego sprzętu (stosunek ceny do możliwości, brak możliwości pełnej kontroli), postanowili stworzyć własne. Zaprojektowane przez nich niewielkie urządzenie jest w gruncie rzeczy prostym układem funkcjonalnym, który jest zdolny wykonywać zaawansowane obliczenia sterowane za pomocą oprogramowania. Ponieważ dysponuje różnymi interfejsami wejścia i wyjścia, w zasadzie działa jak prosty komputer. Zadowoleni z efektu swojej pracy twórcy postanowili podzielić się samym urządzeniem i wiedzą o nim ze wszystkimi zainteresowanymi. Na internetowych stronach sprzedają gotowe układy, a dodatkowo oferują pełną dokumentację urządzenia wraz z gotowym oprogramowaniem, jego różnymi wersjami. Wokół projektu błyskawicznie urosła społeczność jego użytkowników, niektórzy jedynie wykorzystali gotowe urządzenie i/lub jego dokumentację, inni zaczęli je modyfikować, ulepszać, personalizować10. Wokół domowej, amatorskiej, ale jednocześnie kreatywnej i nacechowanej ideologicznie twórczości w zakresie hardware pojawiają się zorganizowane zbiorowości. Niektóre z nich mają ulotny charakter społeczności wirtualnych komunikujących się dzięki internetowym forom i aplikacjom, inne, odwołując się do mitów lat 70. XX w., kiedy w garażach i akademikach Doliny Krzemowej rodziły się zręby współczesnej kultury cyfrowej, organizują się w przestrzeni offline – spotykają się na środowiskowych targach, eventach, wspólnie majsterkują i spędzają czas11. Powyższe i podobne im społeczne aktywności przybierają także 10
11
Zob. więcej Open sesame, „The Economist” Technology Quarterly Q2 2008, Jun 5th 2008 – wersja online: www.economist.com/node/11482589, a także; More than just digital quilting, „The Economist” 2011 – wersja online: www.economist.com/ node/21540392. Przykładowa fotorelacja z jednego ze spotkań społeczności twórców hardware podczas Chaos Computer Club w Berlinie w 2011 roku; http://avaxnews.com/appealing/Chaos_Computer_Club_28th_Congress.html.
81
formę bardziej instytucjonalną. Coraz bardziej powszechne na całym świecie stają się formaty badawczo-edukacyjno-kulturowo-gospodarcze znane jako Media Laby, czyli laboratoria mediów. Najczęściej są powoływane przez instytucje edukacyjne, naukowe czy jako komercyjne inicjatywy przedsiębiorców. Obok nich także format środowiskowych klubów dla medialnych majsterkowiczów cieszy się coraz większą popularnością. Spotykający się w nich hakerzy określają je mianem hackerspace. Zarówno bardziej formalne laboratoria mediów, jak i środowiskowe kluby hackerspace to przykłady coraz większej aktywności użytkowników technologii cyfrowych. Powstają w nich oryginalne pomysły i gotowe urządzenia, których realizacja poszerza techniczne uniwersum rozwiązań cyfrowych i sieciowych12. Audio Jedną z najprężniej funkcjonujących społeczności zajmujących się rozbrajaniem istniejących technologii hardware i tworzeniem dla nich pozarynkowych, nieoficjalnych alternatyw są grupy hobbystyczne zajmujące się sprzętem służącym do reprodukcji nagrań muzycznych. Audiofile-majsterkowicze rozkładają na czynniki pierwsze całą infrastrukturę technologiczną tego typu urządzeń, poszukując konfiguracji najbardziej optymalnych – to jest najwierniej, najbardziej wydajnie odtwarzających zarejestrowane klipy audio. Konstruowanie sprzętu audio okazało się jedną z najbardziej dynamicznych sfer rozwoju technologii medialnych, a jednocześnie rynek tego typu urządzeń to miejsce wielu ekonomicznych i społecznych potyczek i nieustannych negocjacji. Audiofile są przekonani o wielu ideologicznych i rynkowych ograniczeniach i manipulacjach ze strony rynku, takich jak celowe działanie na rzecz gorszych co do oferowanej jakości rozwiązań sprzętowych, bardziej korzystnych ekonomicznie (przypadek taśm magnetofonowych, które zastąpić miały płyty gramofonowe), zastępowanie torów analogowych urządzeniami cyfrowymi czy przejście od sygnału stereofonicznego do standardów dźwięku wielokanałowego. Także i dlatego, choć przede wszystkim z pobudek hobbystycznych i ekonomicznych, skłonni są do modyfikacji istniejących i konstruowania autorskich rozwiązań sprzętowych13. Jedną z najbardziej popularnych taktyk stosowanych przez audiofili-majsterkowiczów są samodzielne modyfikacje, zestawianie i uzupełnianie. Taktyka ta jest nazywana w środowiskowym slangu tweakingiem. Polega ona najczęściej na zastępowaniu tanich podzespołów urządzeń lepszymi jakościowo lub też na dołączaniu i uruchamianiu pominiętych w tańszych wersjach urządzeń modułów składowych w taki sposób, że ostateczna konfiguracja urządzenia niższej klasy odpowiada wyższym wymaganiom. Tweakując standardowy odtwarzacz CD czy DVD, można w ten sposób, tanim kosztem, osiągnąć znaczną poprawę jakości14. W domenie komputerowej tweaking najczęściej objawia się jako „podkręcanie” maszyn obliczeniowych. Działania tego typu wymuszają pracę podzespołów według wyższych niż przyjęte nominalnie przez producentów i sprzedawców 12
13 14
Zob. na temat laboratoriów mediów np.; Medialab. Instrukcja obsługi, red. M. Filiciak, A. Tarkowski, A. Jałosińska, Chrzelice 2011 – wersja online: http://labkit.pl/ wp-content/uploads/2011/12/Medialab.-Instrukcja-obs%C5%82ugi.pdf, P. Celiński, Medialab? Obowiązek a nie zbytek, „Kultura Enter” 2011, nr 32 – wersja online; http:// kulturaenter.pl/medialab-obowiazek-a-nie-zbytek/2011/03/. Na temat hackerspace zob.; http://hackerspaces.org/wiki/Hackerspaces czy http://hackerspace.pl/. Przykładowe społeczności – http://diyaudioprojects.com/, www.diyaudio.com, http://electro-music.com/forum/topic-45898-50.html. Przykładowy „tweaking” przeciętnego odtwarzacza płyt CD – http://goldfinch_ mod.eu.interii.pl/CD/philips%20614/philips614.html.
82
parametrów i standardów, można powiedzieć, że overclockerzy (podkręcacze) wyciskają ze swoich maszyn siódme poty15. Inną taktyką, która cieszy się olbrzymim zainteresowaniem środowiskowym pośród miłośników sprzętu audio, jest „klonowanie” już istniejących urządzeń. Klony powstają na zasadzie dokładnego odwzorowania struktury wybranego pierwowzoru, który najczęściej jest przedmiotem drogim. Obowiązuje tu przekonanie, które można sformułować w następujący sposób: podzespoły użyte podczas produkcji w oryginalnej wersji urządzenia są powszechnie dostępne, ale ich ekonomiczna wartość w przypadku samodzielnego zakupu i montażu okazuje się wielokrotnie mniejsza. Taktyka klonowania ma wyraźne oblicze „antysystemowe” – klonujący są przekonani o tym, że rzeczywista wartość drogiego sprzętu audio jest znacząco różna od jego zawyżonej wartości rynkowej ustalanej przez producentów na podstawie reguł popytu i podaży. Software Stwierdziłem, że wyobraźnia medialna postawiona w obliczu różnych warstw skupienia medialnych technologii zostaje wystawiona na bezprecedensową próbę. Znajduje się w trakcie dostrajania się do nowego otoczenia i oswajania z jego technicznymi regułami. Efekty wyobraźni emancypującej się z reguł analogowego uniwersum technologicznego można było zobaczyć, przyglądając się nowym, społecznościowym, otwierającym sposobom wykorzystania, remiksowania i kreowania hardware. Jeszcze dobitniej widać jej potencjał, kiedy przyjrzy się przestrzeni software i interfejsów. Na tym poziomie, gdzie użytkownicy mniej lub bardziej bezpośrednio stykają się z „wirtualnym” kodem, technologie można nie tylko, tak, jak w przypadku hardware, fizycznie czytać i pisać, korzystając z już istniejącego ich języka, ale także zmieniać generalne reguły samego kodu – interpretować, remiksować, pisać go wciąż na nowo, według najbardziej nawet niezwykłych reguł. Właśnie na poziomie software wyobraźnia medialna staje się faktycznie dwukierunkowa, obejmuje i synergizuje ze sobą zdolność do downloadu i uploadu, które dotyczą nie tylko treści przygotowanych za pomocą mediów, ale i samych mediów. Staje się inkluzywna, to znaczy, przyciąga i wchłania sensy i formy pozamedialne, pozatechniczne. Można chyba zaryzykować twierdzenie, że triumf techniki nad kulturą zostaje podważony w zakresie triumfu medialnej wyobraźni i szerzej – kultury nad uniwersum technologii cyfrowych i sieciowych. Mozilla Cyberprzestrzeń i jej technologie stały się areną kreatywnych działań mediotwórczych. Możliwe są tu różne aktywności na różnych poziomach zaawansowania fachowego – od holistycznego projektowania mediów i/ lub ich interfejsów, takich jak systemy operacyjne, aplikacje użytkowe, serwisy i protokoły sieciowe, formaty plików i języki programowania, do instalacji na mniejszą skalę – wtyczek, pluginów, rozszerzeń, elementów personalizacji interfejsów stosowanych w wybranych aplikacjach czy całych systemach. Przełomem była tu działalność jednej z fundacji wytwarzającej wolne oprogramowanie – Mozilla. Jej przeglądarka internetowa Firefox była pierwszą aplikacją, której użytkowa postać została otwarta na personalizację za sprawą darmowych i ogólnie dostępnych rozszerzeń (extensions, plug-ins), modularnie dołączanych drobnych 15
Zob. jedną ze stron rejestrujących wyniki podkręcania komputerów i ich komponentów, która funkcjonuje także jako środowiskowa lista konkursowa – www.hwbot.org.
83
aplikacji i funkcjonalności, elementów estetyzujących (skórki). Każdy zainteresowany i kompetentny ma możliwość zaproponować swoje rozwiązania społeczności użytkowników tej aplikacji – aplikacja podpowiada użytkownikom wybrane funkcje, sugeruje personalizację, a jej kod pozostaje nieustannie zmieniającą się mozaiką różnych modularnych elementów. W podobny sposób ewoluuje dziś większość dostępnych aplikacji stosowanych w smartfonach, komputerach osobistych czy innych urządzeniach osobistych. Na mediotwórczy potencjał indywidualnych użytkowników i społeczności otwierają się systemy operacyjne; tysiące aplikacji do systemu operacyjnego Android, dla urządzeń formy Apple; popularne aplikacje dla profesjonalistów – pędzle, samouczki, czcionki, akcje w Photoshopie, efekty i style w programach do edycji video i audio, gotowe struktury kodu, protokoły, skrypty w aplikacjach programistycznych. Kształt tych systemów, podobnie jak wszelkich mniejszych tworów software’owych, coraz częściej przypomina mozaikę składającą się z wielu niezależnych formalnie, choć doskonale ze sobą współpracujących modułów. Mozaika ta przybiera w czasie różne układy strukturalne, jest otwarta na rekonstrukcje i poszerzenia. Protokoły i algorytmy Drobne aplikacje poszerzające funkcje już istniejących programów to jedynie niewielki, choć najbardziej bliski przeciętnemu użytkownikowi w codziennej praktyce medialnej, fragment software. Kolejne poziomy programowania kodu cyfrowego – wyszukane algorytmy, skrypty, protokoły – choć już nie tak czytelne i dostępne dla zwykłego użytkownika, trwale odmieniły całokształt aktywności nowomedialnych i krajobraz przestrzeni cyfrowej. Wiele aplikacji stało się ikonami zmian kulturowych, które oddziałują daleko poza uniwersum technologiczne. Protokoły internetowe, takie jak IP, TCP, HTTP i podobne, umożliwiły połączenia sieciowe – stworzyły sieć komunikacyjną, rozpiętą pomiędzy połączonymi ze sobą maszynami matematycznymi. Aplikacja Napster, pierwowzór wszystkich współczesnych rozwiązań służących do wymiany plików w Sieci, a po niej protokół BitTorrent zmieniły nie tylko kartografię krążących po Sieci pakietów danych, ale przede wszystkim okazały się narzędziami zupełnie nowej ekonomii danych i przepływów, wokół której toczy się burzliwa debata o cywilizacyjnym zasięgu na temat praw własności intelektualnej, autorskich i dotyczących wymiany dóbr w kulturze i życiu społecznym. Rozwijanie rozwiązań software’owych bazujących na mechanizmach działania społeczności internetowych czy tworzenie sieci komunikacyjnych dla przedmiotów (Internet of Things) to kierunki rozwoju całej cybersfery, które wywodzą się właśnie z zaimplementowanego do realizacji cyfrowego kodu imaginariów o otwartości, powszechnym dostępie i nieograniczonej wymianie zasobów. Następna sfera rozwiązań software’owych, która odmienia oblicze kultury, wiąże się z kluczową dla społeczeństw informacyjnych kwestią ekologii informacji. Nie wchodząc tu w różnice pomiędzy informacjami w tradycyjnym rozumieniu tego słowa a danymi, czyli cyfrową reprezentacją informacji, można stwierdzić, że sprawne poruszanie się w środowisku większych i mniejszych baz danych (Internet, zasoby dyskowe, repozytoria) to dzisiaj najważniejsza kompetencja kulturowa i społeczna. Algorytmy, takie jak te stosowane do przeszukiwania i katalogowania zasobów internetowych, znane powszechnie jako przeglądarki czy narzędzia do tworzenia powiązań pomiędzy elementami baz danych, na nowo strukturyzują zasoby wszelkiej wiedzy i uczą nas nowego myślenia o nich. Tworzenie danych o danych, software’owych map i nawigatorów po oceanie danych stało się jednym z najbardziej potężnych i dochodowych działań biznesowych ostatnich lat.
84
Kolejnym, specyficznym przykładem software są także aplikacje z poziomu meta. W skład tego zbioru wchodzą języki programistyczne, systemy operacyjne, rozwiązania interfejsowe. Definiują one finalny użytkowy sens hardware i stanowią fundament kulturowego oblicza maszyn cyfrowych. Zbiór tego typu rozwiązań zaczyna się od systemów operacyjnych bazujących współcześnie przede wszystkim na metaforze okien i pulpitu, przez kody HTML, FLASH, PHP. Ku kondycji postmedialnej Temat software’owych realizacji mediów wyobrażonych zakończę na tych kilku przykładach, pamiętając, że to właśnie ta warstwa nowomedialnego środowiska stanowi najbardziej kaloryczną pożywkę dla medialnych wyobrażeń, wrażliwości i imaginacyjnego myślenia. Rozwój cyfrowego projektu to w głównej mierze pochodna ewolucji w obszarze software i interfejsów. Z tej lokalizacji wypływają źródła zasilające obszar mediów konstruowanych samodzielnie, remiksowanych, społecznościowych, otwartych, hackerskich. Wszelkie te strategie i taktyki medialne funkcjonują bowiem wciąż we współczesnej praktyce kultury jako, z jednej strony, echa medialnej tradycji porządku analogowego wraz z towarzyszącymi mu imaginariami, wrażliwością, kompetencjami, ideologiami i, z drugiej, jako komunikacyjny prolog do etapu postmedialnego. Kondycja postmedialna, przywołam tu raz jeszcze określenie Petera Weibela, to stan, w którym dotychczasowe formy medialne i towarzyszące im kultury dematerializują się, zmieniają stan skupienia – z materialnych stając się ich software’ową, wirtualną i matematyczną zarazem, powłoką. W kondycji postmedialnej wszystkie języki, wyobrażenia, formy, aksjologie, mitologie, estetyki, interfejsy i ich przeróżne sprzężenia/przenikania/nałożenia są możliwe, dostępne i spoczywają w zasięgu coraz skuteczniej emancypującego się z tradycyjnych reguł technopolowej gry podmiotu. Gwarantuje to zarówno rozwarstwienie mediów, jak i rekonstrukcja medium do zbioru interfejsów, dokonujące się w domenie cyfrowej. Powszechna wyobraźnia komunikacyjna wraz z wynikającymi z niej kompetencjami do komunikowania się za pośrednictwem cyfrowych i sieciowych form to dla tego stanu medialnego środowiska źródło zasilania semantycznego przynajmniej tak samo ważne jak wszystkie tradycyjne siły rozciągające pomiędzy siebie technologie komunikacyjne. Zsieciowany, rizomatyczny, heterogeniczny, hybrydowy krajobraz medialnych języków, reguł, form i kodów po raz pierwszy w historii kultury jest tak bliski liberalnym, demokratycznym wyobrażeniom o kształcie życia społecznego. Przedstawiona strukturalna bliźniaczość powoduje, że obie sfery rozwijają się równolegle i stapiają w praktyce codzienności – podobnie jak równolegle i nierozłącznie są stopione ze sobą zakodowany hierarchicznie (feudalnie) hardware z wyobrażonym według anarchizujących i wolnościowych idei software. Współczesne czytanie i pisanie świata dostępne dzięki cyfrowym mediacjom nie wymaga jedynie działań na poziomie semantyki medialnych przekazów i krytyki ich istniejących form, jak to wciąż ma miejsce w kulturze analogowej/ masowej i większości ich interpretacji prowadzonych na gruncie nauk humanistycznych i społecznych. Media cyfrowe można samodzielnie obmyślać i pisać na obu poziomach jednocześnie – z rosnącą nieustannie łatwością tworzyć ich unikalne formy i gramatyki użytkowe oraz remiksować je zgodnie z analogowymi i nowo powstającymi regułami.
85
Teorie mindware
Postmediacje
Splot umysłu z oprzyrządowaniem i oprogramowaniem Eksplikacja negatywistyczna Roman Bromboszcz
87
88
W niniejszym tekście podejmę się wyjaśnienia pojęcia mindware, ponieważ uważam, że jest ono niezwykle interesujące. Będę wskazywał na znaczenia tego terminu, kierując się następującą regułą: próbując określić znaczenie lub istnienie czegoś, zapytam o jego negację, przeciwieństwo i opozycję. W trakcie wywodu postawię trzy główne pytania oraz postaram się na nie odpowiedzieć. Pytania: 1. Czym jest mindware, jeśli nie jest hardware’em ani software’em? 2. Czym jest mindware, jeśli nie jest ani kulturą, ani przyrodą? 3. Czym jest mindware, jeśli nie jest ani pogłoską, ani historią?
Zanim przejdę do szczegółowej analizy tych pytań i udzielenia możliwych odpowiedzi, zacznę od paru uwag oraz zarysuję pewne tło ewolucyjne dotyczące cywilizacji europejskiej i jej wewnętrznych procesów uwzględniających rozwój pojęcia umysł. Wydaje mi się, że najbliżej położonym terminem, który oświetla sens słowa mindware, jest umysł, dlatego nakreślę zasadnicze rysy, jakie przybiera to pojęcie w toku ewolucji umysłowej zachodniej kultury, tak zwanego Okcydentu1. 1. Marcel Mauss w Pojęciu osoby pokazał, że tworzenie się niezależnego umysłu było uwarunkowane przemianami wewnątrzspołecznie usankcjonowanej wymiany imion. Wymiana ta pociągnęła za sobą użycie pojęcia osoba (persona) i pojęcia ja. Przejście od skończonej liczby imion przydzielanych wśród wspólnot archaicznych do reprezentacji moralnej i prawnej, a w końcu pojawienie się ja jako fundamentu wiedzy i sceptycznego racjonalizmu nie było czymś oczywistym. Przekazywanie imion z pokolenia na pokolenie2 jest pierwotnym zjawiskiem, które przez pewne modyfikacje doprowadza w ostateczności do ukształtowania się autonomii jednostki. Powyższa konstytucja osobowości, której podjęli się Kartezjusz, Johann G. Fichte, Immanuel Kant i Edmund Husserl, kulminuje nowoczesne rozumienie ludzkiej osobowości. Nie jest to punkt ostatni w ewolucji umysłu, po nim nastąpi pewnego rodzaju odwrót od autonomii i niezawisłości w stronę usieciowienia i relatywności ja. Podobną drogą podążyli Friedrich Nietzsche i Martin Heidegger, a także szkoła filozofii analitycznej, wykorzystująca narzędzia i zdobycze nauk neurobiologicznych. W tym względzie wymienić należy Daniela Denneta. Można powiedzieć, że w tym ostatnim kroku umysł przechodzi metamorfozę i z czegoś monadycznego, koncentrycznego i transparentnego staje się czymś rozsianym, rozgałęzionym, procesualnym i wymykającym się całościowej kontroli. Nie bez znaczenia dla tego ostatniego przejścia ma fakt ujawnienia przez Zygmunta Freuda i Carla G. Junga obszarów ludzkiej nieświadomości. W ich eksplanacji ludzkiej psychiki można dostrzec konfrontację dwóch sfer ludzkiej osobowości, „nadego” lub „superego” pod postacią ogólnych nakazów i norm zachowania oraz popędowości, czyli dziedziczonych zachowań instynktownych. Dla Nietzschego fakt tej wewnętrznej walki był argumentem prowadzącym go do postawienia wyżej ślepej siły, tak zwanej woli mocy, ponad siły rozumu.
1 2
M. Weber, Racjonalność, władza, odczarowanie, tłum. M. Holona, Wydawnictwo Poznańskie, Poznań 2011, s. 57, 86. M. Mauss, Pojęcie osoby [w:] Antropologia i socjologia, tłum. M. Król, K. Pomian, J. Szacki, Wydawnictwo KR, Warszawa 2001, s. 367–372.
89
W ten sposób ewolucja ludzkiego umysłu przechodzi po kole i trafia w miejsce, w którym się zaczyna, w przyrodzie, agonistycznie pojmowanym środowisku biologicznym, gdzie walka o dominację zostaje afirmowana, a wszelkie korekty normotwórcze zostają potraktowane jak budzący resentyment idole. Koncepcja Nietzschego nie jest ostatnim słowem w toku wyjaśniania tego, czym jest człowiek i jaką rolę w jego kształceniu, enkulturacji3 i edukacji spełnia umysł, subiektywny lub obiektywny korelat ciała, a także, w innym wymiarze, absolutny4 epifenomen kulturowy całościowych powiązań tworzywowo-aksjologicznych, przedmiotów oceny z sektorów polityki, nauki, religii, techniki itd. Nietzsche kwestionował umysł pojmowany subiektywnie jako instancję niezdolną do właściwego sterowania jednostką. W jego przekonaniu oddanie władzy umysłowi jest swego rodzaju oszustwem, pewną fałszywą świadomością, ponieważ siły instynktu, biologiczne podłoże psychosomatycznych uwarunkowań ludzkiego ja, są praktycznie nie do usidlenia, natomiast podrzędność umysłu wynika z długoletniego panowania określonej kultury gloryfikującej ducha, bezcielesne wartości i niemożliwą do utrzymania powszechnie moralność. Nietzsche kwestionował również umysł obiektywny nakazów prawnych, kumulowanych wyników nauk, związków partnerskich i gospodarczych, w tym małżeństw, konstytucje, korporacje i reprezentatywną władzę partyjną. Jeśli subiektywna instancja jest zbyt słabym oparciem, a obiektywny duch porządkujący relacje wewnątrz państwa i gospodarstwa domowego jest wewnętrznie skłócony, na gruncie naturalistycznie zorientowanej filozofii niemieckiego późnego romantyka, nie można mówić o pogodzeniu obydwu aspektów w paruzji5 ducha absolutnego. Nietzsche w obliczu tak daleko posuniętej krytyki kultury starał się stworzyć jednostkę na nowo, miał to być twór nieuzyskujący trwałego, ostatecznego kształtu, a jedynie pewne kontury, o których można z pewnością powiedzieć, że przypominają istnienie kogoś, kto albo jest nędzarzem, albo istotą nadprzyrodzoną bliską lub jednoznacznie identyczną z bogiem6 lub demonem. Punkt widzenia Nietzschegojest nacechowany fascynacją tego, w jaki sposób układają się stosunki dominacji i uległości w przyrodzie, gdzie, jak ukazał to Charles Darwin, mamy do czynienia z doborem naturalnym. Po zwrocie w stronę natury rozumianej jako wzór i odrzucenie roszczeń do kierowniczej roli umysłu, dokonanych przez Friedricha Nietzschego i Maxa Stirnera, pojawiło się wiele teorii przywracających sensowność namysłu nad ludzkim ja oraz sugerujących pewną modyfikację w obrębie rozumności jako uniwersalnego narzędzia człowieczeństwa. Należy przypomnieć wysiłki Husserla, a po nim Heideggera, a po nich współczesne, postmodernistyczne reinterpretacje, a także ultramodernistyczne, nacechowane empirycznie i analitycznie oceny takiej postaci jak Dennett. Jak już wspominałem, punktem dojścia jest umysł pod postacią zdecentrowaną i ujarzmioną jak u Michela Foucaulta. W tych współczesnych odsłonach zaczynających się od Heideggera widać, jak autonomia ja zostaje poddana rewizji, a w zamian za istnienie monadyczne można uzyskać twór nacechowany społecznie i ugruntowany w zależnościach w stosunku do społeczeństwa i jego 3 4 5 6
G. Simmel, Filozofia kultury, tłum. W. Kunicki, Eidos. Wydawnictwo Uniwersytetu Jagiellońskiego, Kraków 2007, s. 16, 17. G.W.F. Hegel, Encyklopedia nauk filozoficznych, tłum. Ś.F. Nowicki, PWN, Warszawa 1990, s. 557–584. J. Derrida, Pismo filozofii, tłum. B. Banasiak, Inter Esse, Kraków 1993, s. 107. Arystoteles, Polityka, tłum. L. Piotrowicz [w:] Tegoż, Dzieła wszystkie, t. 1, Wydawnictwo Naukowe PWN, Warszawa 2003, 1253A.
90
mikrowładzy. W ten sposób przedstawili sprawy umysłu i jaźni postmoderniści, tacy jak Michael Foucault i Jacques Derrida, a w ujęciu Dennetta umysł jest siecią, która składa się z procesualnie rozwijanych szkiców, niedookreślonych ostatecznie map, planów rozwojowych, wielości warstw nakładających się na siebie i przenikających. Przypomnę teraz zasadnicze momenty rozwojowe ewolucji pojęcia ja, tak jak to naszkicował Mauss. Jak już wspomniałem, należy zacząć od momentu dziedziczenia imion. Imię własne jest tym z wynalazków, którego nie posiadają zwierzęta, jeśli brać pod uwagę fakt, że traktują swoje potomstwo jako jedność złożoną z określonej liczby jednostek. Na poparcie tej tezy Jurij Łotman podał obserwację takiego rodzaju – przynajmniej niektóre z gatunków zwierząt, jeśli rozpatrywać ich zachowanie w zakresie opiekowania się potomstwem, nie rozróżniają cech szczególnych swoich dzieci i jest możliwa zamiana, nawet naruszająca nieco przynależność do gatunku7. Zamiana jednostki na inną o względnie podobnym kształcie nie powoduje konfliktu w zakresie przynależności do matki, choć należy pamiętać, że zwierzęta kodują zapachy, więc w zastępstwie językowej ekwiwalencji i reprezentacji ma się do czynienia z przypisaniem osobnika do jakiegoś wyjściowego identyfikatora zapachowego. Imię własne w najdalszej przeszłości człowieka, tak daleko, jak można sięgnąć do niej w ramach rekonstrukcji antropologicznej, odgrywało rolę nośnika, który umożliwiał zachowanie tożsamości grupy. Imiona umożliwiają cyrkulowanie osobowości przodków i sił związanych z totemem. Przodkowie odradzają się i są stale obecni przez zwornik, jakim jest imię. Podobnie dzieje się z imionami, które odwołują się do jakichś funkcji w ramach wspólnoty plemiennej. Cyrkulacja imion to w tym wypadku utrzymywanie w ścisłej zależności zakresu zróżnicowania pracy społecznej, a także zachowywanie pewnego inwentarza świąt, rytuałów, inicjacji itp. Przykładem takiego zastosowania imion są imiona okazjonalne, nadawane na przykład wraz z wejściem młodego człowieka w stan dorosłości, stan bycia wojownikiem8. Cyrkulacja imion jest związana z rytualnym stosowaniem masek. Maska i imię są ze sobą tak silnie połączone, że trudno dostrzec stan, w którym funkcjonują dyferencjacje zapośredniczone w imionach własnych, a nie istnieje funkcjonowanie masek. Rytualna przesłona jest metonimiczną częścią ducha, demona, siły przyrodniczej lub przodka, który ujawnia się przez mediację, w której w pewnej jedności pojawia się taniec, muzyka i śpiew. Widać wyraźnie, że taka osobowość człowieka archaicznego nie ma możliwości zaistnieć w nowoczesnym sensie tego terminu. Natomiast to, z czym ma się do czynienia, to wywłaszczanie, cała seria skomplikowanych uzupełnień9, gdzie jednostka użycza swojej psychosomatycznej jedności, w tym umysłu, który w szeroko pojmowanej grze10 staje się sceną migotliwej obecności swoich przodków, zwierząt totemicznych, sił nadprzyrodzonych. Jeśli opisany stan jest pierwotny, to to, co po nim następuje, należałoby nazwać interioryzacją maski pod postacią uświadomionego ja. Mauss wskazał na bramińskie i buddyjskie Indie oraz na starożytne Chiny jako te kultury, które „wynalazły” personalistycznie pojmowaną tożsamość człowieka. W tradycji związanej z Upaniszadami11 pojawiają się zwroty określające kształtowanie 7 8 9 10 11
J. Łotman, Kultura i eksplozja, tłum. B. Żyłko, PIW, Warszawa 1999, s. 63–65. M. Mauss, Pojęcie osoby..., s. 372. J. Derrida, O gramatologii, tłum. Bogdan Banasiak, Wydawnictwo KR, Warszawa 1999, s. 154, 272, 319, 322. R. Callois, Żywioł i ład, tłum. A. Tatarkiewicz, PIW, Warszawa 1973, s. 300, 323–328. Upaniszady, tłum. S.F. Michalski, Ultima Thule, Warszawa 1913, s. 8, 21.
91
ludzkiej jaźni jako czegoś względnie niezależnego, natomiast w ramach buddyzmu pojawia się nakaz zakwestionowania swojego ja jako złudzenia, które uniemożliwia oświecenie. W cywilizacji rzymskiej pojawia się coś, co nazwać można osobowością prawną12. Natomiast początki chrześcijaństwa i okres średniowiecza przynoszą pojawienie się osoby odpowiedzialnej moralnie za swoje postępowanie. Stąd niedaleko już do odkrycia przez Kartezjusza ja myślącego jako jedynego faktu, którego nie może objąć metodyczne wątpienie. Fichte i Kant zrobili użytek z wniosków, jakie wysnuł Kartezjusz, i postawili ja jako fundament, dla tego pierwszego, teorii wiedzy, dla tego drugiego, warunek rozumu praktycznego i moralności13. Jak już było powiedziane, inwencja ludzkiej autonomii pociąga za sobą zrzucenie maski. W pierwszym kroku człowiek staje się istotą samodzielną, tak jak Sokrates, który nie tylko zabiegał o duszę i cnotę, ale także stał się pierwszą szeroko znaną i podziwianą ofiarą tych usiłowań. Jak powszechnie wiadomo, kierował się daimonionem, który pojmował jako wewnętrzny głos. Głosu tego nikt poza nim nie słyszał i z punktu widzenia wolności osobistej jego posiadanie i kierowanie się nim wydaje się czymś dozwolonym. Niemniej ta sama sprawa nie wydaje się czymś oczywistym w okresie rozkwitu Grecji klasycznej, mocno zdominowanej, mimo swobód w rządzeniu, przez nakazy religii14. Śmierć Sokratesa jest w pewnej mierze dowodem na to, że proces uwalniania się ludzkiego ducha spod władzy szeroko pojmowanych reguł społecznych jest czymś niebezpiecznym z punktu widzenia władzy i sprawowania kontroli. O ile średniowiecze uznawało istnienie duszy jako pewnego rodzaju oparcia wewnętrznego, o tyle obciąża ją obowiązkiem rozgrzeszania, spowiedzi, uznania swojej wadliwości na podstawie dogmatu uznającego grzech, pierwotne, nieusuwalne zło. Co więcej, idea istnienia ludzkiej duszy zostaje połączona z ideą predestynacji, co widać zarówno u Augustyna, jak i u Eriugeny, którzy mówią o byciu wybranym przez Boga przed narodzinami. Natomiast oświecenie wraz z ideą emancypacji ludzkiej wiedzy przywracało na szeroką skalę postulat autonomii. W odrodzeniu wraz z Kartezjuszem pojawił się aksjomat niepodważalności ludzkiej aktywności pod postacią myślenia, a w oświeceniu to założenie stało u źródeł procesu budowania gmachu nauk, systemu wiedzy Kanta, Fichtego, a także encyklopedii, francuskiej i niemieckiej. Uznając wyżej wskazane przemiany za uwalnianie się od uwarunkowań wynikających z reguł religijnych oraz ewolucję ducha subiektywnego pod postacią jaźni, można przejść do ostatniego etapu w ramach wprowadzenia w problematykę mindware’u. Chodzi o skrótowe nakreślenie przemian, które dokonały się w drugiej połowie XX wieku. Szczególnie ważne są w tym względzie koncepcje Michela Foucaulta, Jacquesa Derridy i Gillesa Deleuze’a. W szczególności wydaje się słuszne stwierdzenie, że ci autorzy, jako reprezentatywni dla postmodernizmu, doprowadzili do procesu zgoła odwrotnego od nowoczesnej emancypacji i autonomizacji ludzkiego ja. Dość często rozumie się ten fakt jako wynik odrzucenia, siłą argumentacji, sposobów tłumaczenia ludzkiej osoby przez takie postaci, jak Platon, Kartezjusz i Hegel. Postmodernizm prezentuje bowiem ostrą krytykę poglądów metafizycznych i epistemologicznych całej tradycji od Greków poczynając, a na oświeceniu kończąc. Niemniej istnieje o wiele bardziej interesująca diagnoza mówiąca, że zmiana w postrzeganiu 12 13 14
M. Mauss, Pojęcie osoby..., s. 377. Tamże, s. 386. I. Krońska, Sokrates, Wiedza Powszechna, Warszawa 1989, s. 33, 61.
92
ludzkiej osoby wynika ze zmiany warunków środowiskowych. Model ludzkiej jaźni zmienia się, ponieważ zmieniają się okoliczności życia. Świat jest bardziej zaludniony, praca ludzka wymaga dalszych skomplikowanych podziałów, istnienie poza pracą i społecznością, a nawet poza polityką, staje się coraz mniej możliwe, niż jak to było możliwe wcześniej, przynajmniej do pomyślenia, w sytuacji starożytnych Aten lub republikańskiej Francji. Michel Foucault wprowadził terminy ujarzmienie i blokowanie, które ukazują, w jaki sposób władza usidla jednostkę, zarazem dając jej miejsce w systemie i podporządkowując ją sobie, bez możliwości kwestionowania zależności owego miejsca od z góry narzuconych reguł, na przykład bycia obserwowanym, egzaminowanym, rozliczanym itp. U Derridy ludzkie ja to jedynie ślad, a nie żywa obecność. Ślad ten należy próbować rozwikłać przez sieć odniesień, która prowadzi przez konteksty, w jakich ja występuje jako zdegradowany znak. Owo rozplątywanie zależności między śladem a siecią, w jaką jest wplątany, nie może zostać nigdy ostatecznie zamknięte, choć z drugiej strony wszelkie możliwości są ograniczone przez pewien horyzont, który wyznaczają koleiny myślenia binarnego, posługującego się opozycjami. Z pewną przesadą można powiedzieć, że to, czego dokonują wymienieni Francuzi, to przywrócenie archaicznej maski i włożenie jej do środka ludzkiej osoby w taki sposób, by można było znów uznać jej społeczne, nieredukowalne położenie. W położeniu tym, jeśli dostrzega ona swoją odrębność, to jest to odrębność zrelatywizowana do tego, czego się od niej wymaga, w jaki sposób się ją edukuje, w jakich procesach kultywacji i walki politycznej uczestniczy. Zarówno ślad, jak i zawieszone na powrozie ja są symbolami archaicznej maski, która nie przylega na stałe do twarzy. W tym nowym wydaniu jest ona tymczasowa, odwoływalna, umowna oraz konieczna zarówno jako argument przeciw transparentności samopoznania, jak i argument za uznaniem aksjomatu, że wielość społeczna pod postacią spierających się różnic jest czymś pierwotniejszym od istnienia jednostki jako autonomii. W powyższych wywodach naszkicowałem proces przemian, jaki zachodzi w ramach kultury europejskiej, od Greków po czasy współczesne. Pojęcia ja oraz osobowość nie są identyczne z pojęciem umysł. Niemniej do tej pory posługiwałem się nimi jako synonimami. Chciałbym teraz zatrzymać się na chwilę przy paru uwagach dotyczących ich różnicowania. Następnie pochylę się nad tym, w jaki sposób połączyć dotychczas zaprezentowaną wiedzę z tematem wiodącym, kwestią mindware’u. Nie wchodząc w szczegóły, ja to pewna instancja, która została uznana przez myślicieli nowoczesnych za punkt centralny, dowodzący, niekwestionowany i zasadniczy. U Kartezjusza i Kanta, a później także u Husserla, ja towarzyszyło każdemu aktowi intelektualnemu. Od ja zaczyna się każdy proces myślowy, akt przypomnienia, wyobrażenia, oceny itp. Postmoderniści owo ja uznają za fantazmat, pomimo podminowania i osłabienia tożsamości tej instancji pozostaje ona jako coś, co ujawnia się w różnych przebraniach, w relacji do ruchu sił społecznych lub lingwistycznych. Umysł jest tym, co powstaje w wyniku ścierania się ruchomego ja w stosunku do jego otoczenia, ale nie jest całością, którą jest osoba. Umysł jest tylko jakąś jej częścią, tą częścią, która jest odpowiedzialna za myślenie, a więc argumentację, dowodzenie, dedukowanie, abstrakcję i tworzenie nowych pomysłów. Jeśli pytam o mindware, pośrednio pytam o umysł. Naszkicowano ten wstęp po to, by rozwikłać sprawę przemian w obrębie traktowania umysłu w kulturze europejskiej. Współczesność ukazuje na tym polu nowy problem, jest nim nasycenie otoczenia człowieka maszynami i technologiami. Udzielając prostej
93
odpowiedzi na pytanie, czym jest mindware, można powiedzieć, że jest to umysł, który przeszedł przemianę w wyniku konfrontacji z techniką, przede wszystkim w konfrontacji z komputeryzacją. Współczesna wersja człowieka, jeśli uzna się zadanie jej sformułowania za palące i potrzebne ogółowi, nie tylko jest wersją ja uspołecznionego w ramach podziału pracy, upolitycznienia sfery sztuki, konieczności dokonywania interakcji społecznych itp., ale jest także odmianą istoty prawie bez ustanku zanurzonej w informacji. Jest to istota połączona z urządzeniami elektronicznymi, przesyłająca wiadomości, zanurzona w ekranach, uczestnicząca w konwersacji na odległość, podejmująca rytuały społeczne we wspólnotach wirtualnych itp. Nowy model osoby to istota połączona, przez co połówkowa, fraktalna. 2. Mindware wiąże się z wyobraźnią, która odnosi się do techniki, ale jej źródło tkwi w umyśle. Mindware to pewna mutacja, której sens i istnienie dopiero się wydarza, stąd można powiedzieć, że każdy jest odpowiedzialny za jego negocjację. Inaczej mówiąc, dorosłość. Niestety, mindware nie ma ustalonego znaczenia w języku polskim i stąd nie można mówić o jakimś „przedustawnym” punkcie oparcia. Jeśli można byłoby użyć w tym miejscu odniesienia do koła hermeneutycznego, nie ma jednoznacznych przedsądów, oczekiwań, które mogłyby kierować w stronę pogłębienia rozumienia. Trzeba zaczynać intuicyjnie, po części „wczuwając się” w słowo, po części projektując je, konstruując od początku, mając na uwadze pewne cele strategiczne. W przypadku tego artykułu chodzi mi o wpisanie mindware’u w ramy rozważań nad umysłem i techniką. Widzę powody ku temu, szczególnie wtedy, gdy przyglądam się podobieństwu między budową a kształtem słów hardware, software i mindware. To, co w obydwu pierwszych terminach jest określone przymiotnikiem, w trzecim terminie zostało uchwycone przez rzeczownik. Gdyby uchwycić się tej sugestii, może okazać się, że mindware jest czymś w rodzaju oksymoronu, niepoprawnego łącznika. Wniosek taki jest oczywisty, jeśli zada się pytanie wprost, czy istnieje taki rodzaj oprogramowania, jaki wykorzystuje jakąś część umysłu jako swoją, właściwą, dziedzinę, sprawczą. Nie ma problemu z rozwikłaniem znaczeń terminów hardware i software. Pierwszy oznacza „twarde” oprzyrządowanie, które wykorzystuje się w komunikacji, pracy i rozrywce zapośredniczonej przez urządzenia elektroniczne, media cyfrowe, dyspozytywy. Hardware to wszystko to, co prezentuje się zmysłom, gdy wyłączy się zasilanie, odłączy prąd elektryczny i spojrzy na obudowę lub zdejmie ją i zajrzy w to, co jest wewnątrz, gdzie prezentują się układy scalone, twarde nośniki pamięci, napędy typu CD-ROM i DVD-ROM, taśmy i kable łączące poszczególne części i wiele innych. Gdy włączy się prąd i spojrzy na ekran lub zwróci uwagę na to, co dzieje się w głośnikach, można ujrzeć, relatywnie do interakcji z urządzeniem, jak pewne bodźce zmysłowe pojawiają się w obrębie tej części hardware’u, która służy sterowaniu. To, co można powiedzieć a priori o software, to to, że jeśli włączono zasilanie, włączono także software. Człon ten uruchamia się jako zestaw komend, operacji logicznych, zakodowanych czynności, jakie można wykorzystać i na nowo zdefiniować w odniesieniu do informacji wygenerowanych lub pobranych z zewnątrz, na przykład z aparatu fotograficznego lub z kamery. Mindware nie jest hardware’em ani software’em. Hardware to technika, części scalone, okablowanie, przepływający prąd, liczniki, kalkulatory danych, ekrany, urządzenia zewnętrzne, pamięci zewnętrzne. Software to ta strona urządzenia elektronicznego, która ujawnia się przez interfejs, informacyjne kanały wejść
94
i wyjść z maszyny. Interfejs jest tutaj tą częścią, która służy do sterowania, w tym do przeprogramowania. Hardware można śmiało nazwać oprzyrządowaniem lub elektroniką, natomiast software oprogramowaniem lub logiką. Nie ma natomiast jasności odnośnie do reguł, jakimi należałoby się kierować przy próbie ustalenia znaczenia terminu mindware. Może to być metafora, która określa oprogramowanie, jakim jest zestaw komend, operacji logicznych i wbudowanych zachowań w umysłowość człowieka. Nie będzie to termin ścisły, a jedynie pewna sugestia, co do tego, że jeśli maszyny funkcjonują na zasadzie określenia z góry ich możliwości logicznych, tak samo może funkcjonować człowiek, który posiada wiele cech podobnych do maszyn. Człowiek pozbawiony mindware byłby wyłącznie hardware’em, czyli oprzyrządowaniem. Stwierdzenie to w pewnym zakresie jest płodne, choć poniekąd mylące. To nieprawda, że istota ludzka, która nie myśli, przestaje funkcjonować na takiej samej zasadzie jak wyłączony z prądu komputer. Człowiek upośledzony umysłowo lub człowiek w śpiączce jest czymś zredukowanym pod względem istoty, przestaje być w gruncie rzeczy człowiekiem, pozbawiono go człowieczeństwa, jednak nadal jest maszyną, jego podzespoły, takie jak układ trawienny, układ oddechowy itd. pracują. Zbyt skromnych użyto środków do tego, by zawyrokować wyłączenie logiki w obrębie wegetującego organizmu człowieka. Powiedzenie, że komuś upośledzonemu brak jest mindware’u, jest tylko pewną formą udziwnienia, która nie wnosi niczego ponad stwierdzenia, że komuś brakuje w tym wypadku umysłu. W tym zakresie można zbliżyć się bardziej do momentu, gdzie najlepiej byłoby porzucić termin i wyczyścić język. Niemniej warto pójść jeszcze tą drogą, budując wkrótce pewien model. Przejdę teraz do prób naświetlenia terminu przez jego tłumaczenie na język polski. Trudno jest wyobrazić sobie mindware poza jego związkiem z umysłem. Wydaje się, że jest to umysł, który został połączony z techniką, szczególnie z oprzyrządowaniem i oprogramowaniem. Powstająca z tych trzech elementów trójca to układ, w którym umysł jest czynnikiem sterującym, połączonym sprzężeniem zwrotnym z urządzeniami i programami. Jeśli spojrzeć na tę sytuację z dystansu, można powiedzieć, że jest to umysł, który został okablowany. Nie znajduję lepszego pomysłu na wyjaśnienie mindware poza wymianą tego terminu na serię innych nazw. Po pierwsze, chodzi o słowo splot, a także neologizm umysłowienie. Po drugie, widzę sens porównania terminu z pewnymi określeniami, które zostały zaczerpnięte z filozofii Wschodu, myślę w szczególności o sędziwych, być może nieco „pokrytych patyną” określeniach, takich jak Atman i Brahman. Punktem wyjścia tej części moich rozważań jest wniosek wyciągnięty z obserwacji jednostki ludzkiej połączonej przez okablowanie z terminalem komputerowym. Niepewność czy opisywany splot jest czymś istniejącym czy nie, na ile jest tu jakiś nowy byt, a na ile jest to hipostaza lub „dzielenie włosa na czworo”, wynika z tego, że jest to sytuacja relatywnie nowa i w gruncie rzeczy tworzy nową grę językową, by sprostać nowości tej sytuacji. Jak wiadomo nowa gra językowa, jeśli nie znajdzie powszechności wśród własnych amatorów, nie stanie się żywa. Przetrwanie tej gry zależy od jej popularności, szczególnie w tym wypadku popularności w kręgu naukowców. W zasadzie to drugi krytyczny moment, w którym los kategorii jest z góry, jakby rozstrzygnięty, zawieszony, tragiczny ze względu na przeznaczenie. Nie nazwie się jakimś innym terminem człowieka i jego przyrządu do pisania, takiego jak ołówek, długopis albo maszyna do pisania. Nie nazwie się
95
jakimś nowym terminem człowieka w samochodzie, w samolocie, na wyspie, w parku, w łóżku czy w innych sytuacjach. Chciałoby się natomiast powołać do życia nowe słowo opisujące człowieka plus komputer lub człowieka plus urządzenia elektroniczne traktowane jako najnowsza generacja mediów wywodzących się od telefonu i telegrafu, a także fotografii i radia. Nie widzę w potrzebie sprostania tej sytuacji niczego złego. Uważam, że próba stworzenia nowej nazwy i nowej gry jest racjonalna, niemniej nawet wśród samych uczestników takiej gry może pojawić się wątpliwość i sceptycyzm co do tego, czy nie chcą w tym wypadku przebić głową muru, przekroczyć granic języka. Splot człowieka z komputerami i urządzeniami elektronicznym jest współcześnie nie tylko czymś powszechnym, jest także czymś nieredukowalnym, nieustającym i postępującym. 3. Powrócę do pytań, które sformułowałem na początku i przejdę do odpowiedzi. Umysł tworzy umysłowienie, które jest pęknięciem i zwarciem w jednym, pozornie sprzecznym akcie. Akt ten jest aspektem uczestniczenia w środowisku nowych mediów. Nowe media spełniają się przez elektryczność i są podporządkowane specyficznej logice. Kluczowa dla jej zrozumienia jest znajomość składni, zarówno w odniesieniu do języków programowania, jak i w odniesieniu do połączeń między np. wideo a audio. Pierwsze pytanie dotyczyło tego, czy umysłowienie jest czymś różnym od oprogramowania i osprzętu. Inaczej mówiąc, w jakim zakresie umysł ulega zniekształceniu i wzmocnieniu w zanurzeniu w cyfrowość. Umysłowienie to sposób gospodarowania wewnątrz sieci. Ewolucja człowieka jako jego kultura jest procesem przechodzenia od punktu do drzewa aż po sieci, które stają się czymś najbliższym i najwłaściwszym. Powyższemu sądowi podporządkowują swoje rozważania Manuel Castells15 oraz Alexander Bard i Jan Soderqvist16. Uznają, że współcześnie wyraźnie i anizotropowo wybiera się Sieć jako najlepsze siedlisko. Z wielu powodów nie da się tego siedliska opisać w kategoriach materialistycznych. Nie uda się dostrzec Sieci przez ludzkie zmysły, choć jawią się różne formy zmysłowości. Siedząc przed ekranem, patrząc na świecące litery iPoda, widać efekty, jakie tworzy Sieć, ale nie widać jej samej. Sprawa sieci komputerowych, a także elektrycznych, gazowych oraz sieci, nazywanych politycznymi i ekonomicznymi, takich jak np. FARC wygląda dość ciekawie od strony ontologicznej. Nie chodzi tu bowiem o monizm, lecz dualizm dotyczący zjawisk, jakie postrzega się w stosunku do obiektu, który jest nadrzędny wobec tych zjawisk, a także jest ich źródłem w sensie logicznym i matematycznym. Zjawiska, które widać na ekranach, nie są zjawiskami przyrody, są natomiast zjawiskami swoistymi, nowomedialnymi, które starano się określić mianem wirtualnych, nie twardych jak znana dotąd materia, ale mimo to mierzalnych. Zdarzenia te nie obrazują sieci, nie reprezentują jej budowy, ale potrzebują tej budowy, by umożliwiać funkcjonowanie sieci. W gruncie rzeczy jakiekolwiek są zjawiska, dla sieci nie ma to znaczenia. Podstawowymi jednostkami wymiany są wartości. Wśród tych wartości wymienić można wymienność jako taką chęć wymiany dla niej samej.
15 16
M. Castells, Społeczeństwo sieci, tłum. M. Marody, K. Pawluś, J. Stawiński, S. Szymański, Wydawnictwo Naukowe PWN, Warszawa 2008. A. Bard, J. Soderquist, Netokracja. Nowa elita władzy i życie po kapitalizmie, tłum. P. Cypryański, Wydawnictwo Akademickie i Profesjonalne, Warszawa 2006.
96
Jeśli mysłowienie jest przenikaniem sieci przez oprogramowanie i oprzyrządowanie, sam umysł jest siecią wewnątrz swojego dominium. Umysł ciągle jest skłoniony ku sobie, a tylko sytuacyjnie włączony w okablowanie i sprzężony z siecią. Umysł jest siecią analogiczną do sieci w usieciowieniu globalnej ekonomii współczesnej i energetyki lokalnie. Umysł ma budowę sieci analogicznie do sieci neuronalnych. W nich widać układy połączeń, które rozgałęziają się i przecinają swoje tory. Tor myśli takiego umysłu biegnie w zapętlonych rozgałęzieniach i brak mu początku oraz końca. Opisana wyżej sieć może w momencie podłączenia jej z aparaturą i zbiorem komend stać się monadą elektroniczną. Monadę taką można nazwać Atmanem, pamiętając, że przywołuje się tradycję bramińską, tradycję hinduską. W Upaniszadach znajdują się ustępy, gdzie Atman jest Brahmanem, i znoszą się między nimi granice. Do takiego samego wniosku dochodzi się również wtedy, gdy rozważy się jednostkę ludzką jako coś, co wynika z podłączenia ciała i umysłu z aparaturą techniczną, np. komputerem. Człowiek, który rozpoczyna pracę z komputerem, jest monadą elektroniczną, która jest autonomią do momentu, gdy łączy się z siecią. Jeśli już jest w sieci, to staje się elementem ruchomym środowiska, którego budowy nie dostrzega, ale które w jego stronę wysyła różne zjawiska. Te formy zmysłowości, które prezentują nowe media, mają inne podstawowe kategorie. Wśród nich są kategoria modularności, a także transkodowanie, automatyzacja i wariacyjność. Nie jest to słownik kompletny i na obecnym etapie nie można wykluczyć kolejnego przewrotu. Jeśli mysłowienie jest czymś więcej niż Atman, to polega to na tym, że nie jest monadą, jest czymś, co rozplenia się w sieci. Sieć jest Brahmanem, jeśli zgodzimy się na pomost pomiędzy naszą kulturą a kulturą Indii. Idąc dalej tym szlakiem, można dostrzec, że w użyciu jest termin zorganizowane złudzenie, adekwatny do słów maja lub mana. Sieć ciągle zwodzi swą atrakcyjnością, a odbiorcy jej nie zdają sobie sprawy z tego, że konsumtariat, a więc ci, którzy kupują, mogą doprowadzić do zmiany form zmysłowości i podstawowych kategorii. Owe rewolucyjne zapatrywanie na wygląd sieci i jej możliwości do odczytania interesująco przedstawił Richard Barbrook17. Prezentuje on narrację, w której pojawia się spór między dwoma supermocarstwami – Stanami Zjednoczonymi a Rosją. Stany Zjednoczone wygrywają pojedynczą grę, mimo że nie wygrywają w niej wszystkiego. Rosja pozostaje nieufna wobec modularności i wariacyjności Sieci. W jej wyobrażeniach Sieć w pewien sposób oddala się od modelu państwa kontrolowanego przez władzę biurokratyczną. Natomiast Europa i jej zachodni partner stworzyli globalną Sieć i czerpią z tego profity w postaci przyrostu w zakresie sprzedaży usług. Wyraźnie jest dostrzegalne to, że w tym sporze właściciele dużych firm naciskają na to, by stworzyć nowy ląd ekonomiczny, zmniejszając biurokrację, natomiast Rosja pozostaje na etapie stagnacji, jak twierdził Immanuel Wallerstein, z roku 1913. Rosja nie chce Sieci, choć przyjęła ją i zarazem stuningowała, podrasowała pod względem nadzoru i inwigilacji. Sukces Stanów Zjednoczonych i Europy dokonał się wraz z nowym wynalazkiem. Sieć i umysły ludzkie połączone razem wirtualną siecią tworzą coś, co modularnie zmienia swoją budowę i jest nietrwałe, migotliwe, niemniej ma charakter pewnej totalności. Całość ta, o której mowa, jest nowym, ogromnym środowiskiem, które określam mianem sieci umysłów. Jeśli podłączy się do tej sieci, to jest się czymś 17
R. Barbrook, Przyszłości wyobrażone. Od myślącej maszyny do globalnej wioski, Muza, Warszawa 2009.
97
ponad Atmana, czyli Brahmanem, na zasadzie części, która jest całością, a zarazem pozostaje czymś transcendentnym, umykającym tak jak znikający użytkownicy na czacie. Umysł nie jest przyrodą ani kulturą. Umysł jest częścią przyrody przez swoje unerwienie w cielesnym aspekcie, a kulturą w zakresie tego, że powstał w wyniku enkulturacji, wychowania i edukacji. Kultura została wmontowana w umysł, a przyroda uległa opisywanemu procesowi, ale nie poddała się i pozostawiła po sobie postaci odruchów, warunkowych i bezwarunkowych rozkazów, takich jak mrużenie oczu, gdy ktoś w nie świeci. Umysł wyszedł z przyrody, ale podlega jej wtedy, gdy pojawia się głód, w aktach seksualnych, a także przez fantazjowanie, sztukę. Umysł włączony do sieci, zanurzony w niej, partycypujący i doświadczający zjawisk, to umysł, który jest splotem. Splot taki ma znamiona myślenia, które jest w drodze, które nie jest pełne, które się bogaci, gdy korzysta z wymiany. Jednostkowy umysł zanurzony w sieci to splot, który rozplenia się i zatraca, powracając do siebie jak do sterującego ja. Umysł połączony z innymi, tworzący sieć myślenia, elektryczności i oprzyrządowania jest czymś bez ja, jest samomyśleniem, polilogiem, splotem wyższym, przewyższającym jednostkę. Przewyższenie to jest analogiczne do tego, które stosuje się do porównania zwierzęcia jako jednostki z gatunkiem lub gatunku z przyrodą. Sieć jest najszerszą jednostką, jaką można sobie wyobrazić, stawiając coś ponad sobą jako jaźnią jednostkową. Taki nadrzędny splot energii, informacji i ludzi stanowi coś, czego nie obejmuje się umysłem ani zmysłami. W tym sensie umysłowienie techniki jako sieci jest ponad wolą pojedynczego człowieka, staje się czymś wielościowym, przerastającym lokalność państw, na korzyść nowej przyrody baz danych. Trzecie z postawionych pytań dotyczy historii i plotki. Bez wątpienia splot i umysłowienia nie są plotką, są czymś, co zostało określone przez użycia tych kategorii w wyżej wyłożonych zależnościach. Plotka jest czymś przednaukowym, posiada atrakcyjność, ale jest niewiarygodna, wadliwa w stosunku do źródła, z jakiego pochodzi. Pochodzi z zatrutego źródła, co oznacza, że to właściwie źródło jest chore lub wadliwe, a nie sam wytwór. Mówi się w plotce o kimś lub o czymś wyolbrzymiająco, ale niekoniecznie niewłaściwie w sensie korespondencji. Plotka może mówić prawdę, ale jest niewiarygodna, ponieważ powstała przez przesłyszenie tak jak w „głuchym telefonie”. Ktoś powtarzał coś komuś i w serii tych powtórzeń powstała pogłoska jako dowód nieświadomego procesu dochodzenia do prawdy. Historia w stosunku do plotki jest czymś, co wytwarzają historycy, specjaliści od narracji, której nie da się uprawiać w sposób irracjonalny lub nieświadomy. Narracja historyczna jest tekstem, który powstaje w sposób racjonalny. Narracje takie mają założony cel, strukturę tego, co opisują, i stoją za nimi również czynniki działające nie wprost. Niemniej źródłem historii są zmiana społeczna i ścieranie się różnych procesów ze sobą, a nie jest nią powtarzanie czegoś w sposób wadliwy. Historia ma wielu narratorów i nie sposób postawić jedności między różnymi szkołami, ale stoi za nimi zawsze rozróżnienie historii i sztuki literackiej, a także sztuki prawnej i ekonomicznej. Splot, o jakim mówiłem, jest faktem, co więcej, fakt ten jest doświadczany, a jego istnienie nie jest materialne, ani nie jest wprost idealne, idealistyczne lub transcendentalne. Splot nie jest historią, ponieważ jego trwanie jest bardzo krótkie, chodzi tutaj o okres ostatnich około trzydziestu lat. Trwanie takie nie ma świadomości dorastającej do zauważenia wewnętrznego dystansu, wyparcia czegoś w niepamięć lub odcięcia się od czegoś z jej rozwoju. Co prawda są
98
dwie generacje Sieci, Web 1.0 i 2.0, ale obydwie są w użyciu i przenikają się na różnych płaszczyznach. Historia Sieci będzie opowiadała o tym, jak w pewnym momencie podłączono do niej ciała jako pojemniki umysłowienia, sploty z nowymi tworzywami i energiami. Ponadto opowie o wyjściu poza sieć elektroniczną w stronę łączenia jej z neuronalną i jak zastąpiono interfejsy dotykowe interfejsami, w których płynie myśl bez użycia zmysłów. Plotka o splocie może być różnego rodzaju, nie sposób wykluczyć nieracjonalnego dyskursu, który będzie przeinaczał dotychczasowe poszukiwanie najlepszego dopasowania. Pogłoska o Sieci dotyczyć może tego, w jakim celu wykorzystano ją do tego, by kontrolować umysły. Plotka taka jest bliska temu, co mówi się o teoriach spiskowych. Jednakże wycofanie wojsk radzieckich z Układu Warszawskiego pozornie jest osłabieniem oddziaływania Rosji na państwa środkowej Europy. Zaprzestano groźby powołania do wojska, ale zarazem pozwolono, by do umysłów jednostek miały dostęp obydwie strony i skoncentrowano się na dopracowaniu sieci elektrowni atomowych i linii przeciwlotniczej. Plotka o Sieci mówi, że za siecią stoją po pierwsze korporacje, po drugie układ dwustronny między dotychczas zwaśnionymi graczami. Korporacje biorą swoje dzięki reklamie i sprzedaży, natomiast strony globalnych umów mają w rękach zgodę na prześwietlanie Sieci w celach antyterrorystycznych. Historia Sieci jest spisywana zazwyczaj z akcentem, który pada na okres w latach 60. XX w., gdy między uczelniami amerykańskimi wymieniano korespondencję i inne teksty. Chodzi tu o A.R.P.A.N.E.T., ciało odpowiedzialne za obronę przeciwlotniczą w Stanach Zjednoczonych. Niemniej Sieć jako taka pojawiła się w latach 90. XX w. za sprawą Tima Barnersa-Lee, gdy ten stworzył interfejs do wyświetlania obrazów i załączania dźwięków. Tekst taki znamionuje nowoczesność. Dopiero audiowizualność jest czymś, co można uznać za charakteryzujące współczesność. W tym kontekście splot, o jakim mówiłem, jest przedmiotem plotki i historii zarazem, będąc racjonalizowany i zaczarowywany. Splot, jaki powstaje z dnia na dzień, nie mając kierunku, posiada cel. Tym celem musi być człowiek, w taki sam sposób jak przyroda jest ukierunkowana na najwyżej usytuowane istoty. Nie sposób wyobrazić sobie techniki inaczej jak samodoskonalącej się i mającej swój cel w zniknięciu. Celem techniki jest osiągnięcie takiej skuteczności, w której znika potrzeba dalszego ulepszania, dalszej postprodukcji lub wejścia na wyższy stan usprawniania projektu. Technika w swojej ostateczności ma osiągnąć cel zupełnego zaspokojenia ludzkich potrzeb i wyłączenie jego umysłu w stan odpoczynku. Stan taki można nazwać uśpieniem, jest to przeciwieństwo myślenia jako tworzenia. Technika, osiągając ten stan, może wyłączyć część libido i jakiś zakres poszukiwań. Nie jest przesądzone, czy ludzie będą zmierzali do takiego stanu techniki. Kluczowym w tej sprawie jest stan majętności i zdolność do gospodarowania. Okazuje się, że nowy wiek jest podminowywany przez kolejne kryzysy ekonomiczne i każde z liczących się państw w światowej gospodarce jest zadłużone. Co więcej, kluczowym dla tego problemem jest stopień ryzyka inwestycji. W jakimś stopniu sytuacja w Polsce nie przypomina strajku, ale ceny stopniowo, bardzo powoli rosną, a tylko w niektórych przedsiębiorstwach zaznaczono podwyżki. Wyraźna zapaść koniunktury nie wróży dobrze Sieci. Powinno się oczekiwać wejścia jej na wyższe stadia wewnętrznej ewolucji, aby osiągnąć krańcowy stan rozwoju techniki, by stać się ludzkością zanurzoną w stanie snu przez Sieć. Inny scenariusz prowadzi do kresu w postaci krachu i wojny oraz do dalszego rozwoju, ale nie w głąb Sieci, tylko w głąb materii. W tym ostatnim rozwiązaniu istnieje możliwość dalszego jakościowego skoku wewnątrz atomu lub
99
przyśpieszenie w wyniku eksploatacji kosmosu. Inwestycja w Sieć nie stoi po stronie problemów związanych z wiarygodnością papierów wartościowych lub ubezpieczeń. Niemniej ogromne środki finansowe można osiągnąć w dziedzinie innowacyjności w zakresie technologii informacyjnych. Z jednej strony są innowatorzy, z drugiej strony pytanie, w jaki sposób ich wyobraźnia może osiągnąć status masowego upowszechnienia. Czego potrzeba, by opracować standardowe złącze umożliwiające sterowanie za pomocą myśli bez użycia klawiatury i myszy? Do jakiego stopnia perfekcji można dojść w projektowaniu takich interfejsów? Czy budując interfejs, przez który będzie można dokonywać zmian przepływu myśli, będzie można wykorzystać go również do tego, by przejąć czyjeś myśli i zakazać im powrotu do ich źródła? Przyszłości wyobrażone rozwoju Sieci są negatywne. W narracji, jaką zaproponował Richard Barbrook, nie ma miejsca na dalsze skokowe rozwijanie Sieci. Już ta forma jest wywrotowa, z dalszą rewolucją należy liczyć się w tym sensie, że cyberpunk stanie się status quo, niemniej żadne niekontrolowane ruchy nie mogą wydarzyć się bez poparcia ze strony polityków. Przyszłość stoi w miejscu, ponieważ ciągle nie udało się zrealizować przyszłości wykreowanej w latach 60. XX w. Wtedy zaczęto wysyłać ludzi w kosmos, na poważnie zaczęto też rozprawiać o robotyce i sztucznej inteligencji. Patrząc na współczesność od strony jej przyszłości, w zestawie fantazmatów pojawił się także człowiek sklonowany, a także rośliny i zwierzęta transgeniczne. Wszystkie wymienione obszary w pozytywnej przyszłości zostaną połączone i stworzą synkretyczną jedność, która będzie łożyskiem globalnego czuwania w zamian za gorączkowe myślenie. Przedstawione człony zjednoczą się w historii o Sieci, która nie będzie miała swojego nowego, przyszłego etapu, ponieważ będzie jego powieleniem. Jeśli podąży się za tym impulsem, będzie można wejść na drogę realizowania techniki jako jej ostatecznego spełniania, wtedy plotka zbliży się do historii i stanie się czymś w rodzaju religii. Przyszły człowiek stoi w opozycji do człowieka współczesnego, ale nie jest wykluczone, że przyszłość opisana w ten sposób zostanie zrealizowana. Na przeszkodzie przede wszystkim leży ogólna zapaść gospodarcza i kurczowe trzymanie się własnych dziedzin przez grupy naukowców. Można powiedzieć, że porozumienia polityczne nie są przeszkodą, ale w tej chwili uwaga jest skoncentrowana na przetrwaniu jednostki, a nie na rewolucyjnym domknięciu. Jednak pewne zachowania, pomimo wynalazku Sieci i w opozycji do jego wizjonerstwa, są świadectwem ciągłego spoglądania wstecz, daleko w przeszłość aż do korzeni cywilizacji. Mówię tutaj o kierunku retrybalnym, ponawianiu pewnych obyczajów z repertuaru kultur przedchrześcijańskich lub równoległych pod względem religijnym i filozoficznym do zasobu kultury europejskiej. Splot, o którym mówiłem, dotyczy najnowszego zjawiska, jakim został obdarzony człowiek. Zjawisko to ma korzenie w komputeryzacji. Poza swoim pochodzeniem splot posiada tło polityczne i odniesienie do człowieczeństwa. Kierując się od ja w stronę ja, po drodze można znaleźć się w sieci. Od sieci umysłu przechodzi się do sieci elektronicznej, która zazębia się z sieciami ekonomicznymi. Poza Siecią nie ma miejsca na wygraną. Wygrywają tylko ci, którzy korzystają z Sieci. W terminologii Barda i Soderquista wszyscy są świadkami konfliktu między konsumtariatem, kupującą widownią, a netokratami. Wśród tych ostatnich są kuratorzy i neksjaliści. Jedni i drudzy czerpią profity z Sieci, przy czym neksjaliści nie traktują innych jako umysł, tylko jako jego echo. 100
Postmediacje
Wokół interfejsów
Narzędzia umysłu Paweł Frelik
103
104
Mindware to najbardziej dosłownie narzędzia umysłu – wszelkiego rodzaju oprogramowanie, serwisy i usługi (chociaż pewnie również urządzenia), które przyczyniają się do bardziej optymalnego działania ludzkiego umysłu. Do tego właśnie podstawowego znaczenia chciałbym tutaj powrócić, odchodząc od podejścia naukowego na rzecz pragmatycznej analizy. Niniejszy tekst dzieli się na dwie części. W pierwszej nakreślę, jakich narzędzi i usług używam w swojej pracy naukowej. Nie jest to na pewno zestaw „żelazny” i nie ma pretensji uniwersalnych. Owszem, ewoluował w ciągu kilku lat, w tym czasie i w każdej z wymienionych poniżej kategorii wypróbowałem przynajmniej po kilka, a czasem nawet kilkanaście, programów. Uważam się za dosyć wymagającego użytkownika, więc chciałbym wierzyć, że moje wybory przynajmniej w jakimś stopniu odzwierciedlają coś więcej niż tylko własne preferencje estetyczne, a przez to mogą stanowić jakąś wskazówkę – przynajmniej dla tych, których wymagania są zbliżone do moich. W drugiej części zastanowię się nad wpływem – zarówno pozytywnym, jak i negatywnym, jaki badane mindware’y wywarły na moje praktyki i nawyki intelektualne. Oczywiście, jak każda samoanaliza, próba taka jest obarczona niebezpieczeństwem braku obiektywizmu, ale ponownie chciałbym myśleć, że wspomnianych narzędzi używam na tyle długo i – jak sadzę – na tyle świadomie, że mogę ocenić chociaż częściowo ich oddziaływanie. Chciałbym również zaznaczyć, że w niniejszym tekście interesują mnie tylko narzędzia – a więc nie to, co nazywa się potocznie zawartością (content). Nie wspominam o najlepszych repozytoriach, ciekawych blogach i godnych uwagi periodykach sieciowych – skupiam się wyłącznie na obiegu informacji, bez jej wartościowania. Celowo również nie przytaczam społecznego wymiaru tworzenia i obiegu informacji, który stanowi oddzielne zagadnienie. Zanim przejdę do samych narzędzi, kilka słów o moim profilu naukowym – ponieważ różne dziedziny wiedzy i nauki mają swoją specyfikę badań. Jestem filologiem anglistą/amerykanistą, moje pierwotne wykształcenie, zarówno w Polsce, jak i USA, ograniczało się w dużej mierze do literaturoznawstwa oraz, w jakimś stopniu, kulturoznawstwa. Utrzymując zainteresowanie literaturą, w ciągu ostatniej dekady przesunąłem się zdecydowanie w stronę mediów i tzw. Visual Studies – na siedem „zakontraktowanych” na następne dwanaście miesięcy dłuższych (powyżej 5000 słów) tekstów (artykuły i rozdziały w pracach zbiorowych) żaden nie dotyczy literatury. To samo dotyczy mojej książki habilitacyjnej, nad którą obecnie pracuję. Od początku kariery akademickiej moim głównym polem zainteresowań, zarówno dydaktycznym, jak i naukowym, jest science fiction i, w nieco mniejszym stopniu, inne kultury fantastyczne i tzw. popularne. Konkretniej, szczególnie intensywnie skupiam się na kulturach wizualnych SF poza filmem i telewizją (chociaż te również wchodzą w zakres moich zainteresowań) – grach wideo, sztuce, mapach, filmie krótkometrażowym i komiksie – oraz tym, w jaki sposób funkcjonuje w nich „gatunkowość fantastyczna” i jak odzwierciedlają one „fantastyczność” zazwyczaj omawianą w mediach pierwszoplanowych – literaturze, filmie i telewizji. Równolegle zajmuję się również współczesną literaturą eksperymentalną (czy też postmodernistyczną, jak niektórzy by to określili) oraz zjawiskami, które nieco przekornie nazywam unpopular culture – oczywiście w kontraście do powszechnie funkcjonującego w kręgach filologicznych, kulturoznawczych i medioznawczych terminu popular culture. W praktyce więc, na co dzień żongluję sporymi ilościami danych pochodzącymi z bardzo różnych i często zróżnicowanych źródeł. Zarówno dydaktyka, jak i badania wymagają nie tylko korzystania z książek i periodyków w formie „hard-copy”, ale również, czy może już nawet częściej niż rzadziej, z elektronicznych baz danych, blogów, wiki i wszelkiego rodzaju źródeł internetowych oraz gier i materiałów wideo. Ze względu na zainteresowanie estetyką i wizualnością, znaczny procent moich danych to pliki graficzne – ilustracje, wybrane
105
klatki z filmów czy zrzuty ekranowe z gier. W konsekwencji, nie licząc powszechnych preferencji typu przejrzysty interfejs czy niezawodność działania, od moich narzędzi wymagam przede wszystkim zdolności do komunikowania się z innymi programami (import/eksport), obsługi wielu typów plików (tekst, obraz, wideo, audio) oraz otwartości wydajności przy przetwarzaniu dużych ilości danych. Poniżej przedstawię mój mindware’owy warsztat badawczy. DEVONThink To prawdziwe serce mojej bazy danych – jako że DEVONThink oraz powiązany z nim DEVONAgent są dostępne jedynie w wersji na niezbyt popularny w Polsce MacOS X, nie będę specjalnie rozwodził się nad jego zaletami1. Duża część funkcji DEVONThink (chociaż nie te, które decydują o jego wyjątkowości) jest dostępna również w Evernote, a do komunikacji między nimi istnieją dwa doskonale działające skrypty2. Evernote Drugie, równorzędne serce mojej bazy. Evernote to archiwum do przechowywania wszelkiego rodzaju informacji – tekstu i obrazów, ale również notatek głosowych i wideo. Dzięki dostępności dla wielu systemów i platform, zaawansowanej synchronizacji oraz rozszerzeń i technik importowania danych z niemal wszystkich typów źródeł Evernote jest idealnym programem na centralną bazę danych, odnawialny zaś co miesiąc limit danych przy darmowym koncie (60 MB) nie jest wbrew pozorom aż tak niski. Zaletą programu jest również zdolność rozpoznawania znaków (OCR) – po wciągnięciu np. pliku graficznego zawierającego tabelę z tekstem i zsynchronizowaniu z kontem online na serwerach Evernote, po kolejnej synchronizacji plik ten wraca do programu-klienta na naszym komputerze w formie przeszukiwalnej tekstowo. Delicious Okręt flagowy tak zwanego social bookmarking – pozwala zarówno na przechowywanie online swoich zakładek i dostęp do nich z każdego komputera z połączeniem sieciowym (znikają kłopoty związane z użyciem kilku komputerów bądź formatowaniem dysków systemowych zjadających pieczołowicie nagromadzone kolekcje linków), jak i przeszukiwanie publicznie udostępnionych linków innych użytkowników. Przy ponad pięciu milionach zarejestrowanych użytkowników można założyć, że znaczna część publicznie dostępnych stron została skatalogowana, a przeszukiwanie Delicious eliminuje jednocześnie najbardziej uciążliwy produkt uboczny Google’a – komercyjnie pozycjonowane strony. Obydwie funkcje są oczywiście bardzo ważne, ale naprawdę kluczowa dla Delicious jest radykalna zmiana nawyków zakładkowania. Dzięki systemowi nadawanych przez samych użytkowników tagów (słów kluczy) serwis zachęca do zapamiętywania każdej strony, która wydaje się nawet minimalnie przydatna w przyszłości. Stosujący tagowanie w miarę konsekwentnie użytkownik może w ciągu kilkunastu sekund znaleźć potrzebną zakładkę w kolekcji liczącej nawet kilkanaście ich tysięcy. 1
2
Osoby zainteresowane działaniem tego doskonałego programu mogą poczytać artykuły jego wielkiego orędownika, kulturoznawcy i autora Stevena Johnsona, który i mnie „nawrócił” na DEVONThink – http://is.gd/lG2Ngo, http://is.gd/u0l9wP oraz http://is.gd/eGyMHO. Skrypty te, dostępne pod adresem http://is.gd/uhPSwm, będą oczywiście funkcjonować jedynie na komputerze z MacOS, ale przy dostępności Evernote dla wielu systemów operacyjnych praktycznie tworzą one most pomiędzy Mac a PC i możliwość transferu danych w obydwu kierunkach.
106
RSSOwl Drugi po DEVONThink/Evernote kluczowy węzeł obiegu danych. Samej technologii RSS nie ma chyba potrzeby tutaj przedstawiać, natomiast podobnie jak Delicious dramatycznie zmienia ona nawyki śledzenia dużej liczby źródeł: blogów, serwisów informacyjnych, ale również takich stron, jak właśnie Delicious (można obserwować linki danego użytkownika bądź wybrane tagi – zarówno globalnie w całym serwisie, jak i u wybranych osób), DeviantArt czy Flickr. Zaawansowane przeszukiwanie i system tagów pozwalają na szybkie przeszukiwanie nawet setek kanałów, stosowanie zaś programów-klientów (RRS można odczytywać również za pomocą usług online, takich jak Google Reader) oznacza budowanie bazy wiadomości dostępnej nawet bez połączenia z Siecią. Dla przykładu, jako amerykanistę interesują mnie wiadomości z USA, lecz nie te przesiane przez polskie czy europejskie serwisy, a pochodzące bezpośrednio „stamtąd”. Jeden z moich folderów w RSSOwl zawiera ponad 50 kanałów RSS lokalnych gazet amerykańskich – rzecz jasna praktycznie nigdy nie przeglądam ich wszystkich dokładnie, ale kiedy interesuje mnie jakieś konkretne wydarzenie, szybkie wyszukanie w czytniku (RSSOwl dodatkowo synchronizuje się z Google Readerem) podaje mi, co o nim pisały m.in. „Baltimore Sun”, „Seattle Times”, „Portland Tribune” czy „Denver Post” – nie muszę chyba podkreślać, ile czasu i wysiłku zabrałoby wejście na strony chociażby 10 takich gazet i ręczne wyszukiwanie potrzebnego artykułu . Z kolei folder „Videogames” to ponad 100 kanałów blogów, magazynów sieciowych czy repozytoriów z ogłoszeniami o konferencjach – pobieżne przejrzenie nagłówków połowy z nich to kwestia kwadransa – wchodzenie na każdy z nich i przesuwanie w dół aż do napotkania wcześniej przeczytanych trwałoby całe godziny. DEVONThink posiada wbudowaną funkcjonalność RSS; w przypadku Evernote istnieje wiele sposobów3 importowania całych kanałów bądź wybranych danych. Instapaper Serwis działa jak swego rodzaju elektroniczna półka, na którą można odłożyć do późniejszego przeczytania znalezione online wpisy blogowe czy strony. Sporą część takiej funkcjonalności można oczywiście osiągnąć za pomocą Delicious i specjalnego tagu, ale osobiście lubię rozdzielać liczące kilka tysięcy linków konto na tym pierwszym serwisie i strony, do których faktycznie chcę w najbliższym czasie powrócić – i tylko takie staram się do Instapaper wysyłać. Możliwość szybkiego wysyłania na serwis linków z wielu programów do RSS i Twittera oraz serwisów informacyjnych również przemawia na jego korzyść. TweetDeck Twitter jest znany przede wszystkim jako narzędzie mikroblogowe (czyli również jako cenne źródło informacji – podobnie jak blogi dawno przestał być medium do dzielenia się informacjami na temat zestawu dań podczas obiadu i wyjścia po mleko), ale równie dobrze może służyć jako szybki i odręczny notatnik. Coraz więcej osób wiodących intensywne życie elektroniczne publikuje znalezione linki, wywołane lekturą spostrzeżenia czy relacje na „żywo” z prezentacji konferencyjnych nie na blogach, a właśnie na Twitterze. Dla przykładu, Matt Novak, autor interesującego mnie bloga Paleofuture (jeden z rozdziałów mojej habilitacji jest poświęcony retrofuturyzmowi jako konwencji wizualnej), na bieżąco tweetuje linki do starych reklam czy artykułów w prasie, które nie znajdują się na głównym blogu, adoptowanym zresztą niedawno przez Smithsonian Institution. 3
Istnieje wiele dodatków do Firefoxa i innych przeglądarek, ale automatyczne przekazywanie umożliwiają również takie serwisy jak http://ifttt.com/.
107
Zakładając, że śledzę „ćwierknięcia” osób, których myśli bądź praca faktycznie mnie interesuje, Twitter staje się narzędziem wglądu w kolektywny umysł interesującej mnie dyscypliny i nieocenioną kopalnią być może chaotycznych, ale często prowadzących do cudownych znalezisk informacyjnych kąsków. Dodatkowo, wysyłanie bezpośrednich wiadomości do użytkownika @myEN umieszcza je w Evernote4 i czyni z Twittera podręczny notatnik – w takim charakterze używam go często, kiedy czytam z dala od komputera i chcę zanotować krótki cytat czy szybką myśl. Wpisanie 140 znaków na telefonie komórkowym to pewnie najszybszy sposób wciągnięcie ich do mojej bazy danych. Blogi Tumblr i WordPress W procesach dydaktycznych są kluczowe, w badaniach – drugorzędne jako narzędzie. Tumblr służy do upubliczniania notatek, pojedynczych zdjęć, linków i wszelkiego rodzaju krótkich treści. Blog w systemie WordPress to dobra platforma do dłuższych wpisów, równoważnych nawet krótkiemu esejowi czy recenzji. Dodatkowo, jak dotąd kilkakrotnie użyłem go w połączeniu z wtyczką Comment Press, która umożliwia innym użytkownikom przejrzyste komentowanie na marginesie, w „dymkach” wiodących do konkretnych słów, zdań czy akapitów. W przypadku poważniejszych tekstów, nad którymi wciąż pracuję, jest to narzędzie nieocenione, szczególnie, jeśli mam grupę osób będących w stanie krytycznie spojrzeć na pisany czy redagowany tekst. Email Zarówno Evernote, jak i Tumblr pozwalają na robienie notatek za pomocą wysyłanych na specjalnie generowany dla zarejestrowanych użytkowników adres e-mailowy – w praktyce używam tej funkcjonalności wyłącznie do wciągania do bazy informacji zawartych w otrzymanych e-mailach (przede wszystkim z wielu list dyskusyjnych). Zamiast kopiować/wklejać przekazuję wiadomości dalej – na Tumblr te, które chcę udostępnić publicznie, a do Evernote (gdzie mogą być następnie redagowane/przycinane), jeśli zawierają informacje, które chcę zachować. Zotero Narzędzie służące do przechowywania danych bibliograficznych i generowania bibliografii w wielu powszechnie stosowanych formatach – ja sam najczęściej stosuję MLA Stylesheet, ale Zotero łącznie obsługuje ponad 1000 różnych stylów cytowania (te rzadziej używane są dostępne do pobrania na stronie). Do niedawna Zotero działało jedynie jako rozszerzenie do Firefoxa – obecnie jest dostępny również jako samodzielny program współpracujący ze wszystkimi najpopularniejszymi przeglądarkami. iPad Niezależnie od wielości zastosowań tableta Apple’a używam go niemal wyłącznie jako czytnika książek. Preinstalowany na nim iBooks jest bardzo sprawnym programem, ale osobiście preferuję GoodReader, który pozwala na więcej skomplikowanych operacji na wielu formatach plików (adnotacje na marginesach, x rodzajów zakreślania i podkreślania, itd.). Formaty te następnie mogą być przenoszone na komputer do dalszej obróbki. Fakt, że istnieje również specjalny moduł DEVONThink dla iPada oraz wersja Evernote’a na to urządzenie (obydwie w pełni synchronizują się z innymi urządzeniami), czyni z iPada cenne narzędzie badawcze.
4
Szczegółowe instrukcje, jak połączyć Twitter i Evernote, znajdują się pod adresem http://is.gd/wMYlYQ.
108
DEVONThink
Evernote
GoodReader (iPad)
Zotero
Delicious
RSSOwl/ Google Reader
TweetDeck
WordPress Instapaper Tumblr
Powyższa lista nie opisuje w pełni, jak poszczególne elementy tego systemu obiegu informacji „rozmawiają ze sobą” – jest to lepiej widoczne na załączonym diagramie. Łatwo zauważyć, że mój obieg informacji zawiera pewne redundancje. Te same dane (bądź ich część) są przechowywane w kilku węzłach – niezależnie od różnej formy ich prezentacji daje to również pewność, że w przypadku zniknięcia którejś z usług bądź awarii systemu mogę odzyskać praktycznie 100% danych. Spora część komunikacji między mindware’ami jest też automatyczna i nie wymaga ode mnie żadnych czynności, raz zdefiniowane kanały RSS i subskrypcje Twittera regularnie się aktualizują (w RSSOwl – co dwie godziny, w Google Reader i TweetDecku – na bieżąco), zarówno nowe zakładki na Delicious, jak i wpisy na Tumblerze automatycznie są wysyłane do wyznaczonych folderów w Evernote, Instapaper zaś posiada swój własny kanał RSS, dzięki któremu nawet bez wchodzenia na serwis mogę zobaczyć, co mam odłożone na elektronicznej półce. Na ciągłe rozszerzanie bazy poświęcam średnio około godzinę dziennie, każda sesja przeglądania RSS-ów, Twittera i e-mailowych list dyskusyjnych to przynajmniej kilka bądź kilkanaście nowych wpisów. Oczywiście programów, usług i serwisów potencjalnie przydatnych w pracy naukowej jest o wiele więcej, należy wystrzegać się jednak sytuacji, w której zaglądanie na 10 kont na portalach akademickich czy utrzymywanie notatek w kliku programach zamiast oszczędzać czas, zaczyna go zjadać. Wymagania osobiste i dyscyplinarne są oczywiście różne, ale nie wszystkie narzędzia wyglądające na przydatne sprawdzają się w praktyce. Przykładowo, portale Academia.edu i ResearchGate wciąż nie osiągnęły masy krytycznej, przy której mógłbym zacząć odkrywać wcześniej nieznane mi osoby bądź publikacje – przynajmniej w interesujących mnie dziedzinach. Oferowana przez Diigo funkcja przyczepiania żółtych karteczek na odwiedzanych stronach lub zakreślania na nich interesujących fragmentów nie wydaje mi się specjalnie pożyteczna w sytuacji, kiedy za pomocą wtyczek do przeglądarek i bookmarkletów mogę importować i opatrywać przypisami w DEVONThink i Evernote zarówno całe strony, jak i wybrane paragrafy. Nawet po kilku podejściach do Mendelaya, programu do zarządzania bibliografiami, wydaje mi się on zbyt skomplikowany, natomiast import z baz danych periodyków, przy-
109
najmniej humanistycznych, wciąż pozostawia wiele do życzenia, w rezultacie pozostałem wierny Zotero, który jest konsekwentnie rozwijany. Wybór oprogramowania używanego w jakimkolwiek zawodzie odzwierciedla w dużym stopniu jego specyfikę – zainteresowania, metody, cele, a w przypadku badań akademickich – szczególne uwarunkowania danej dyscypliny, ale przeciwne oddziaływanie również ma miejsce. Nasze narzędzia wpływają na nasze nawyki i zwyczaje oraz warunkują charakter naszej aktywności. Mindware nie jest tu wyjątkiem – w moim przypadku odgrywa on niebagatelną rolę w kształtowaniu tego, jak prowadzę badania, piszę oraz – w pewnym stopniu – myślę. Dokładny charakter takiego wpływu nie jest łatwy do określenia i prawdopodobnie wymagałby złożonych badań kognitywno-psychologicznych, ale mimo to chciałbym pokusić się o kilka obserwacji. Pierwsze spostrzeżenie jest niemal truizmem – powyższy zestaw sprzęgniętych ze sobą narzędzi pozwala na monstrualnie łatwiejsze przeszukiwanie, identyfikowanie, przetwarzanie i wykorzystywanie materiału badawczego. O wpływie, jaki w ciągu ostatniej dekady wywarły na pracy akademickiej nowe technologie informacyjne, napisano pewnie tysiące stron – ostatnio chociażby w prestiżowym „Nature”5. Dla używających takich rozwiązań jest to oczywiste, ale świadomość i dystrybucja tego trendu wcale nie są w akademii równe. Bezustannie zaskakuje mnie, jak niewielu naukowców-humanistów, włączając tych z młodszego pokolenia6, w aktywny sposób korzysta z idealnie dostosowanych do ich potrzeb programów. Kompilowanie „na piechotę” wielostronicowych list cytowanych źródeł, opowieści o utraconych po reinstalacji systemu setkach zakładek czy utrzymywanie dużej liczby notatek w formie „analogowej” bądź zwykłych plikach Worda są wciąż na porządku dziennym. To samo dotyczy niechęci względem e-książek – niechęci wręcz kuriozalnej wobec realnych zalet korzystania z nich. Daleki jestem od cyfrowego suprematyzmu, ale biorąc pod uwagę, że znakomita część mindware’u jest dostępna na zasadzie otwartej licencji (a dla płatnych istnieją najczęściej ich darmowe alternatywy), trudno mi czasem wytłumaczyć krnąbrny opór przed poświęceniem trzech godzin na opanowanie jakiejś usługi bądź programu. Owszem, zamiłowanie do źródeł papierowych, a przynajmniej książek jako przedmiotów, jest zrozumiałe (sam je podzielam), a osobiste preferencje odnośnie trybu i dynamiki pracy również mają znaczenie, ale odmowa korzystania z chociażby podstawowych narzędzi poza edytorem tekstu skazuje współczesnego humanistę na nieefektywność i wyklucza go z uczestnictwa w wielu współczesnych dyskursach krytycznych. 5 6
Artykuł Jima Gilesa Going Paperless: The Digital Lab jest dostępny online pod adresem http://is.gd/dz7ceM. Daleki jestem od stereotypowania użytkowników według wieku, cały szereg moich starszych koleżanek i kolegów aktywnie używa różnych technologii cyfrowych, ale biorąc pod uwagę fakt, że tzw. młodsze pokolenie wychowało się z techniką komputerową na co dzień i nie powinno mieć kognitywnych oporów przed korzystaniem z niej (fakt uczestnictwa w studiach doktoranckich czy bycia adiunktem na uczelni w dużym stopniu wyklucza również wyjaśnienia tego stanu rzeczy „wykluczeniem cyfrowym”), wysoki współczynnik osób prowadzących badania bądź publikujących, a jednocześnie niekorzystających z nawet jednego typu narzędzi reprezentowanych przez wymieniony przeze mnie software jest zaskakujący. Sytuacja ta może być nieco inna w przypadku nauk ścisłych czy w niektórych działach ekonomii, w których komputery są niezbędne do codziennej pracy. En mass jednak, humaniści-akademicy są wciąż poważnie „zacofani cyfrowo” – co nie oznacza, że nie istnieje jednocześnie wielu filologów, kulturoznawców czy historyków korzystających z softwarowych dobrodziejstw – oczywiście specyficznych dla swojej dyscypliny – dużo aktywniej niż, na przykład, fizycy.
110
Niezależnie od pokory poznawczej, jaką napełnia mnie ogrom wiedzy i wielogłos dyskusji toczących się zarówno w mojej dyscyplinie, jak i szerszej humanistyce oraz świadomości, jak wielu rzeczy muszę się jeszcze nauczyć, mogę z całą odpowiedzialnością stwierdzić, że wykorzystywany mindware uczynił mnie zdecydowanie lepszym badaczem i – chociaż na ten temat ostatnie słowo mają moi studenci – bardziej efektywnym dydaktykiem. Chciałbym też od razu zaznaczyć, że przymiotniki „lepszy” i „bardziej efektywny” nie odnoszą się jedynie do ilości i szybkości pracy, a również do zdolności kojarzenia i znajdowania nie zawsze oczywistych związków. Oczywiście żadne oprogramowanie nie zastąpi czytania czy oglądania, nie zmusi do refleksji nad materiałem ani nie podsunie wniosków – może jednak znacznie usprawnić „brudną robotę”, a czasem poprowadzić w kierunku intelektualnego odkrycia7. O wiele poważniejszy od zwiększonej wydajności pracy z wieloma źródłami jest wpływ wspomaganego techniką dostępu do informacji na sam charakter mojej pracy intelektualnej, który w jakimś stopniu odzwierciedla zmieniający się profil zarówno dyscypliny science fiction studies, jak i wielu innych gałęzi współczesnej humanistyki. Przyczyny tego procesu wybiegają oczywiście daleko poza samo użycie mindware’u, ale uważam, że elektroniczne narzędzia pracy znacznie się do niego przyłożyły – często bardziej niż się to zrazu wydaje. Aby go wyjaśnić, konieczne jest spojrzenie na zachodni model uprawiania humanistyki dominujący przez większość XX wieku. Tradycyjnie filologie były zdominowane przez model badawczy, w którym dogłębna i szczegółowa analiza niewielkich wycinków była często bardziej ceniona niż opracowania synkretyczne. Z kolei tam, gdzie powstawały opracowania przeglądowe typu Historia literatury angielskiej XIX wieku, autorzy przykładali wielką wagę do ustanowienia wąskiego kanonu tekstów, który ze swojej natury promował zamknięcie i konserwatywne spojrzenie. Przykładowo, w przypadku literatury amerykańskiej oznaczało to niemal wyłączne uwzględnienie przysłowiowych „martwych białych mężczyzn”, a w literaturze science fiction – jednej linii rozwoju gatunku reprezentowanej przez technokratyczną i rygorystycznie naukową fantastykę wywodzącą się ze „stajni” pisarzy Johna W. Campbella. Model taki premiował więc długie artykuły analizujące pojedynczy motyw w dwu opowiadaniach, eseje poświęcone tropowi schodów i wertykalności w wybranym filmie oraz teorie, na przykład gatunków, formułowane na podstawie analizy ograniczonej liczby ich najwybitniejszych przedstawicieli. Bardzo uogólniona charakterystyka nie jest bynajmniej pejoratywna – taki rodzaj krytyki wciąż ma swoją wartość i miejsce w szerszych dyskursach. Od kilku dekad obok takiego modelu uprawiania humanistyki pojawił się jednak nurt równoległy, w ramach którego dużo większą rolę odgrywa szersze podejście syntetyczne i niekanoniczne. Dogłębna znajomość intertekstów trylogii The Matrix jest niewątpliwie cenna, ale ja osobiście jeszcze chętniej poczytałbym o problematyce Virtuosity (1995), Nirvana (1997) czy Thirteenth Floor (1999), o seriach Nemesis czy Project Shadowchaser nie wspominając. Nowa teoria z kolei postrzega gatunki jako dynamicznie zmieniające się formacje, których parametry są nieustannie negocjowane w miarę pojawiania się nowych trendów czy tekstów. Spojrzenie takie w sposób oczywisty wymaga więc brania pod uwagę nie dziesięciu klasyków, a dwustu tekstów – niekoniecznie oczywiście w pojedynczym artykule. 7
Doskonałym przykładem tego, jak usługi i narzędzia elektroniczne wpływają na ewolucję nawet jednej idei, jest ponownie wpis na blogu Stevena Johnsona – http://is.gd/huEbj6.
111
Powodów takiej rekalibracji uwagi jest co najmniej kilka i nie są one łatwe do uchwycenia – nie są też zresztą aż tak znaczące w kontekście niniejszego tekstu. Jednym z nich są na pewno postmodernistyczne dyskusje wokół kanonów, zarówno przeszłych, jak i obecnych, które w ciągu ostatnich kilku dekad dramatycznie zmieniły zakres badanych tekstów. Innym wytłumaczeniem szerszego spojrzenia jest pragnienie odkrycia powiązań, linii wypływów i inspiracji między wciąż mnożącymi się artefaktami kulturowymi – niezależnie od tego, czy uznajemy je za produkty Adornowskiego „przemysłu kulturalnego”, czy wynik uwolnienia kreatywności szerszych mas społecznych w wyniku demokratyzacji środków ekspresji. Jeszcze inny fakt dotyczy tego, że krytyka akademicka też stała się swego rodzaju przemysłem (powiązanym zresztą z systemem ocen, etatów i grantów), co narzuca konieczność poszukiwania nowych przedmiotów badań bądź wcześniej nieużywanych podejść metodologicznych. Niezależnie od wytłumaczeń takiego zjawiska, efektywność pracy z mnożącymi się przedmiotami badawczymi jest ściśle powiązana ze stosowanymi narzędziami. Wspomagany przez mindware dostęp do informacji oraz jej bardziej efektywne przetwarzanie promuje bardziej globalne i systemowe spojrzenie, ułatwia objęcie i badanie większej liczby źródeł oraz pomaga śledzić powiązania między nimi. Moje bazy danych w DEVONThink i Evernote już teraz zawierają kilka tysięcy notatek, linków, cytatów, wycinków ze źródeł elektronicznych, niewykorzystanych we wcześniejszych publikacjach zdań i akapitów czy nawet luźnych pomysłów i skojarzeń, ale również – w przypadku pierwszego z programów – pełne biblioteki posiadanych przeze mnie e-książek i artykułów z takich repozytoriów, jak Project Muse, JStor czy Sage. Owszem, znakomita większość takich źródeł w przeszłości mogła znajdować się na fiszkach i w postaci książek, periodyków i kopii ksero. Z całą pewnością jednak, przy takiej wielkości bazy, nie mógłbym przeszukiwać jej tak szybko i tak dogłębnie (a w przypadku DEVONThink również tak kreatywnie – patrz przypis 1), jak pozwalają na to obydwa programy. O ograniczeniach swojej pamięci nie będę już wspominał8, ale istnieją również badacze, tacy jak Howard Rheingold, którzy uważają, że pod wpływem nowych technik informacyjnych staje się ona bardziej plastyczna. W konsekwencji mindware w bardzo bezpośredni sposób wpływa na to, jak szybko piszę, jak szerokie, ale również precyzyjne spojrzenie wnoszę do swoich badań, a jednocześnie, jak bardzo jestem świadomy różnic zdań i wielotorowości interesujących mnie tematów. W swojej klasycznej już książce o języku nowych mediów, Lev Manovich zasugerował, że we współczesnej kulturze ścierają się ze sobą dwa modele organizacji informacji: narracja i baza danych. Pierwszy z nich opiera się na konstrukcji opowieści, w ramach której fakty, zdarzenia i informacje są połączone w ramach linearnego systemu skutkowo-przyczynowego, w którym można mówić o początku, końcu i celu. Baza danych to z kolei zdecentralizowany zbiór rekordów, spośród których w miarę potrzeby są ekstrahowane pojedyncze elementy, składane następnie w różnego rodzaju konfiguracje. Nauki ścisłe od dłuższego już czasu opierają się na takim modelu – ja chciałbym bardzo ostrożnie zaproponować, że zaczyna się on pojawiać również w badaniach humanistycznych. To, w jaki sposób szeroko pojęty mindware organizuje i przedstawia użytkownikowi informację, wyraźnie skłania się ku modelowi bazy danych, w ramach której wystarczająca masa krytyczna informacji prawdopodobnie sama wypycha na powierzchnię pewne regularności, wzorce i powiązania. Jednym z badaczy-literaturoznawców, wykorzystujących duże zbiory danych (ang. data sets), jest Franco Moretti, który w takich 8
Zmiany w działaniu pamięci przedstawia np. zlinkowana infografika http:// is.gd/0NGoN3.
112
książkach, jak Atlas of the European novel, 1800–1900 (1998) czy Graphs, Maps, Trees. Abstract Models for a Literary History (2005) zaproponował nowatorskie podejście do analizowanych dotychczas pod kątem problematyki tekstów. Zdaję sobie sprawę, że sugestia stoi w sprzeczności z wieloma aksjomatami tradycyjnej humanistyki, ale niezbyt przesadzonym wydaje się również to, że percepcja pogłębiającej się złożoności świata – nie tylko w sensie fizycznych, ale i kulturowym – wymaga nowych sposobów organizowania zdobytej wiedzy i jej przekazywania. Napędzany bazą danych mindware jest w tym zadaniu narzędziem idealnym. Trzecie spostrzeżenie dotyczące mojego doświadczenia pracy z mindware’m jest – prawdopodobnie – nieco mniej optymistyczne od poprzednich. Niezależnie od wszelkich dobrodziejstw żonglowania danymi muszę przyznać, że użycie wymienionych wyżej narzędzi i obracanie dużą ilością danych wpływa na jakość mojej koncentracji. Nie dzieje się tak ze względu na brak dyscypliny (nie mam na myśli czynności typu ciągłe sprawdzanie poczty czy zaglądanie na Facebook), ale w wyniku poczucia potrzeby ciągłego dokumentowania kłączowo (ang. rhizome), jakby to określili Deleuze i Guattari, pojawiających się potencjalnie przydatnych informacji. Podczas oglądania filmów potrzebnych mi do pracy muszę się powstrzymywać, aby już za pierwszym razem nie robić szczegółowych notatek. Lektura wielu opracowań krytycznych to śledzenie – sprawdzanie, notowanie czy nawet tylko tworzenie zakładki – pojawiających się bezustannie odwołań i informacji. Nie dzieje się tak zawsze, ale faktem jest, że przez większość czasu moja uwaga jest podzielona między lekturę a pragnienie wyciągnięcia z niej wszystkich potencjalnie potrzebnych informacji – nie tylko tych, z powodu których w ogóle sięgnąłem po daną pozycję. Nawyk taki podtrzymuje poczucie, że artefakty kultury są swego rodzaju organiczną jednością połączoną niesłychanie złożonymi i chaotycznie rozłożonymi liniami inspiracji i współzależności, ale nawet zrobienie zakładki na Delicious (do której mogę nawet nie wrócić) oznacza mikrorozrzedzenie uwagi. Prawdopodobnie jest to kwestia przyjętego przeze mnie systemu – może powinienem na przykład tylko zaznaczać w książce miejsca do późniejszego sprawdzenia, ale mam też jednocześnie poczucie, że szybkie sprawdzenie (i następujące po nim wciągnięcie do bazy) przekłada się na lepsze zrozumienie czytanego tekstu tu i teraz, a nie później. W konsekwencji więc trudno jest mi nawet powiedzieć, czy moja rozrzedzona uwaga to zjawisko pozytywne czy negatywne – jestem tylko świadomy, że w czasach premindware’owych inaczej czytałem i oglądałem. Reasumując, mindware radykalnie zmienia pracę badawczą i naukową – świadomość tego w humanistyce pojawia się być może nieco wolniej niż w naukach ścisłych, ale sama zmiana jest chyba nieunikniona. Mówienie o niej w kategoriach pozytywów i negatywów nie ma, moim zdaniem, wielkiego sensu. Jak wszystkie dziedziny kultury premindware’owe modele uprawiania humanistyki w XX wieku też były postrzegane jako rewolucyjne przez wcześniejsze pokolenia historyków czy filologów. Na razie powinno się jednak przywiązywać dużo większą wagę do samych narzędzi – zbieranie swoich notatek z książek w Wordzie bądź w Evernote robi wbrew pozorom dużą różnicę i nie powinno być determinowane jedynie osobistym przyzwyczajeniem do pierwszego z tych programów. Mindware to narzędzia umysłu – a korzystanie z zaniedbanych narzędzi najczęściej nie kończy się dobrze.
113
Wokół interfejsów
Hackers GNUnited! Johan Söderberg
Artykuł Hackers GNUnited pierwotnie ukazał się w zbiorze pokonferencyjnym spotkania Free Software Conference and Nordic Summit (FSCONS): J. Söderberg, Hackers GNUinted [w:] Free Beer. Written by speakers at FSCONS 2008, red. S.R. Eide, Göteborg 2010, s. 89-105. Tłumaczenie: Paweł Frelik
115
116
Tekst Hackers GNUnited pierwotnie ukazał się w zbiorze pokonferencyjnym spotkania Free Software Conference and Nordic Summit (FSCONS) z 2008 roku. Konferencja ta odbywa się corocznie w Göteborgu w Szwecji. Jak na standardy międzynarodowe FSCONS jest dosyć małą imprezą, ale z czasem stała się miejscem spotkań hackerów, programistów i majsterkowiczów z krajów skandynawskich. To, czym różni się od większych i bardziej znanych konferencji w Europie, to staranie organizatorów, aby zachować równowagę pomiędzy technicznie zorientowanymi prezentacjami i warsztatami a refleksją społeczną i polityczną. Jest to znaczącą różnicą w porównaniu do tego, jak polityka jest obecna na innych imprezach hackerskich – czyli jako dodatek do demonstracji nowego systemu. Wśród tematów, o których debatowano podczas FSCONSów, były paralele pomiędzy ruchem wolnego oprogramowania a permakulturą, reportaż z wioski działającej według zasad ekologii open source oraz o wprowadzeniu elektronicznego systemu do głosowania w Reykjaviku, zaprojektowanego na potrzeby demokracji bezpośredniej. I to właśnie w takim kontekście przedstawiłem Hackers GNUnited. Coroczny udział w konferencji hackerskiej, czy to w FSCONS-ie, czy podobnej imprezie w Europie, to samoterapia dla zniechęconego lewicowca, jakim jestem. Tradycyjne lewicowe przekonanie o tym, że za pomocą racjonalnych deliberacji i wspólnego działania można stworzyć lepszą przyszłość, z każdym rokiem wydaje się coraz bardziej nierealistyczne – zostało ono zmiecione na margines przez splecione ze sobą siły techniki i globalnego rynku. Wiara w moc działania zbiorowości, której zostały pozbawione szerokie masy społeczne, jest przywracana w małych grupach, które wiodą prym na polu techniki. Poczucie obecności ludzi przekonanych o swojej rosnącej sile jako zbiorowości jest niemal odurzające. Dla tych osób utopia jest do osiągnięcia, chociaż zdają sobie też sprawę z tego, że nie da się tego uczynić samymi słowami – może być ona za to produktem ubocznym rozwoju technicznego. Na hackerskich konferencjach można spotkać ludzi, którzy marzą o, dosłownie, wszystkim – od zastąpienia obecnego, państwowego systemu monetarnego prawdziwie globalną i anonimową walutą do powrotu programu kosmicznego, dzięki któremu na księżycu stanąłby hacker. Od ponad 10 lat zajmuję się politycznymi aspektami hakowania i wolnego oprogramowania. Niniejszy artykuł zawiera najbardziej aktualną i skondensowaną wykładnię moich poglądów w tej mierze. Był on już przetłumaczony na język hiszpański, przez Nicolása Reynoldsa, jako Hackers GNUnios. Jest dla mnie zaszczytem, że teraz – dzięki Piotrowi Celińskiemu i Pawłowi Frelikowi – ukaże się on po polsku. W Hackers GNUnited kwestionuję powszechne założenie, że aktywność hackerów da się opisać jako umiarkowaną, pragmatyczną obronę praw politycznych i obywatelskich. Zarówno komentatorzy, jak i praktycy zgadzają się, że pogląd taki jest głęboko zakorzeniony w liberalnej – i amerykańskiej – tradycji politycznej. W opozycji do tego przekonania w niniejszym artykule próbuję odczytać hacking i licencje wolnego oprogramowania w świetle tradycji reformistycznej i radykalnej walki o prawa pracownicze. Z pozoru brak dowodów przemawiających za takim stwierdzeniem. Niemniej jednak autora wolnego oprogramowania i działacza robotniczego łączy pragnienie zapewnienia sobie środków utrzymania w obliczu gwałtownych przemian technicznych. Wychodząc z takiej pozycji, sugeruję, że licencje wolnego oprogramowania mogą być rozumiane jako rodzaj negocjacji w sprawie umowy zbiorowej przystosowanych do krańcowo zindywidualizowanego i niepewnego rynku pracy. Zarówno w tej, jak i innych sferach życia autor wolnego oprogramowania znajduje się w awangardzie poszukiwań nowych
117
innowacyjnych sposobów oporu wobec decydentów – tak innowacyjnych, że nie ma na nie wciąż określeń i które wymagają szczególnego wysiłku, aby wyrazić to, co dzieje się przed naszymi oczami. Polityczna lewica a polityka hackerów Niniejszy artykuł jest spojrzeniem na hacking z perspektywy związków zawodowych. Polityczne znaczenie hackingu komputerowego od dawna stanowi zagadkę dla starej lewicy, pomimo że istnieją kanały komunikacyjne pomiędzy ruchem hackerskich a tradycyjnymi ruchami społecznymi. Najbardziej widocznymi wśród nich są grupy podziemia komputerowego identyfikujące się jako haktywiści i pragnące stosować swoje umiejętności komputerowe do promowania istniejących już programów politycznych, takich jak feminizm czy ekologia1. Większym wyzwaniem jest określenie programu politycznego głównego nurtu ruchu hackerskiego – pierwszym pytaniem, jakie się pojawi, jest: „Czy podziemie komputerowe jest w ogóle ruchem społecznym?”. Wielu hackerów, a być może nawet ich większość, zaprzeczyłoby. W najlepszym przypadku polityka zajmuje drugorzędne miejsce wobec radości manipulowania techniką komputerową2. Mimo to w owej żarliwej afirmacji komputerów zakiełkowały idee o konsekwencjach politycznych. Przykładowo, hackerzy, którzy na co dzień nie uważają się za „politycznych”, z reguły są przeciwni patentowaniu oprogramowania i państwowej kontroli w Internecie, a są to jedynie dwa wybrane zagadnienia. Co więcej, poglądy te są tak rozpowszechnione w podziemiu komputerowym, że wyglądają bardziej na zdrowy rozsądek niż polityczne stanowisko. Inne zagadnienia, takie jak kampania przeciwko rozszerzaniu praw dotyczących własności intelektualnej i obrona wolności słowa, znalazły się w programach politycznych i są aktywnie promowane przez hackerskie grupy lobbystyczne – Free Software Foundation i Electronic Frontier Foundation. Organizacje te w sposób oczywisty są zaangażowane w politykę, zastrzegając jednocześnie, że ich interesy przebiegają wzdłuż innych linii podziału niż te tradycyjne na prawicę i lewicę. Po analizie założeń, na których opierają się publiczne oświadczenia tych grup, socjolodzy zauważyli jednak bardzo bliskie związki z liberalizmem3. Kilku lewicowych autorów nie zgadza się jednak z tą interpretacją hackingu jako ideologii liberalnej. Wręcz przeciwnie, uważają oni, że ruch hackerów mógłby tchnąć nowego ducha w tradycyjną walkę lewicy – nie tylko tę o wolność jednostki, ale również walkę z niesprawiedliwością i nierównością. Najbardziej znanym z insiderów, którzy wyrazili taką opinię jest Eben Moglen, profesor prawa i niegdyś jedna z głównych postaci Free Software Foundation. Moglen jest również autorem The DotCommunism Manifesto, w którym przewiduje, że firmy systemu kapitalistycznego zostaną w przyszłości zastąpione przez anarchizm ruchu wolnego oprogramowania jako najbardziej wydajny model organizowania produkcji4. Specjalista od mediów, Richard Barbrook, rozumował w podobny sposób, kiedy podważał medialny szum wokół „wolnych rynków w cyberprzestrzeni” 1 2
T. Jordan, Activism!: Direct Action, Hacktivism and the Future of Society, Reaktion Books, Londyn 2002. L. Torvalds, D. Diamond, Just For Fun – The Story of an Accidental Revolutionary, HarperCollins Publisher, Nowy Jork 2001.
3
G. Coleman, Hacker practice: Moral Genres and the Cultural Articulation of Liberalism. Anthropological Theory, 2008, nr 8, s. 255–277.
4
E. Moglen, Anarchism Triumphant: Free Software and the Death of Copyright, http:// ur1.ca/f6nx, 1999.
118
promowanych w latach 90. XX w. Zamiast tego Barbrook przedstawił swoją własną wizję technicznie zaawansowanej, anarchistycznej kultury darów. Potrzeba dawania wynikałby w niej automatycznie z faktu, że w Internecie w interesie użytkowników jest dzielenie się informacją, a nie rynkowe handlowanie5. Pod pewnymi względami Napster i kolejne generacje technologii udostępniania plików można uznać za potwierdzenie tezy Barbrooka. Jeszcze bardziej heretycki w swoim ujęciu retoryki socjalistycznej jest słoweński filozof Slavoj Žižek. Sparafrazował on leninowską aprobatę elektryczności, stwierdzając, żartobliwie oczywiście, że „socjalizm to wolny dostęp do Internetu plus władza dla Rad”6. Pomysł ten jest poważnie traktowany przez co najmniej kilku komunistów ze starej gwardii, wierzących, że technika komputerowa to brakujące ogniwo, które w końcu uczyniłoby gospodarkę planową, realną, alternatywą dla gospodarki rynkowej7. Wszystko jednak wskazuje na to, że w ramach tradycyjnej lewicy afirmacja hackingu i techniki komputerowej to zadanie mniejszości. Wśród lewicowych intelektualistów jest rozpowszechniona, głęboko zakorzeniona nieufność do komputerów i – prawdopodobnie automatycznie – ich najbardziej gorliwych użytkowników, czyli hackerów. Korzenie Internetu w amerykańskich instytucjach zimnowojennych same w sobie wystarczają, aby odstraszyć wielu postępowych myślicieli8. Medialny szum wokół Internetu w połowie lat 90. XX w. jedynie przebudził stare demony Ery Informacji – terminu z lat 50. XX w., stworzonego przez konserwatywnych socjologów starających się obalić tezę dotyczącą ciągle aktualnego znaczenia konfliktów klasowych. Oznajmiając koniec społeczeństwa przemysłowego, pragnęli oni udowodnić, że napięcia pomiędzy klasami społecznymi zanikły, a ideologiczna walka pomiędzy liberalizmem i socjalizmem stała się nieaktualna. W konsekwencji tego lewicowi naukowcy od dawna odrzucają tezę nastania Ery Informacji, wykazując, że industrializm, kapitalizm i konflikt klasowy wciąż są obecne9. Na poparcie swoich przekonań wystarczy, że wskażą na nieludzkie warunki, w jakich jest wytwarzany sprzęt elektroniczny w strefach bezcłowych krajów Trzeciego Świata10. Raport z 2008 roku opisuje na przykład warunki, w jakich Chinki, niektóre zaledwie 16-letnie, pracują od 12 do 15 godzin na dobę przez sześć lub siedem dni w tygodniu, zaledwie zarabiając na utrzymanie11. Ustalenia te wyraźnie przypominają historyczne okoliczności, w których karty dziurkowane, maszyny numeryczne, mainframe’y i inne embriony nowoczesnych komputerów stały się kluczem w masowych zwolnieniach robotników i degradacji umiejętności rękodzielniczych w produkcji12. 5 6 7 8 9 10 11 12
R. Barbrook, The Regulation of Liberty: Free Speech, Free Trade and Free Gifts on the Internet, „Science as Culture” 2002, nr 11(2), s. 150–177. S. Zizek, A Cyberspace Lenin: Why Not?, „International Socialism Journal” 2002, nr 95. A. Pollack [w:] Capitalism and the Information Age – The Political Economy of the Global Communication Revolution, red. R. McChesney, E. Meiksins Wood, J. Bellamy Foster, 1998. P. Edwards, The Closed World: Computers and the Politics of Discourse in Cold War America, MIT Press, Cambridge 1996; D. Shiller, Digital Capitalism: Networking the Global Market System, MIT Press, Londyn 1999. F. Webster, Theories of the Information Society, Routledge, Nowy Jork 2002, s. 175. G. Sussman, J. Lent, Global Productions – Labour in the Making of the Information Society, „Hampton Press” (Cresskill) 1998. Weed, The Dark Side of Cyberspace – Inside the Sweatshops of China’s Computer Hardware Production, http://ur1.ca/f6ny, 2008. H. Braverman, Labor and Monopoly Capital, „Monthly Review Press”, Nowy Jork 1974; P. Kraft, Programmers and Managers: The Routinisation of Computer Programming in the United States, Springer-Verlag, Nowy Jork 1977.
119
Po tym krótkim przedstawieniu skomplikowanych relacji pomiędzy tradycyjną lewicą a politycznym ruchem hackerów prześledzę polityczne znaczenie hackerów w świetle starej dyskusji dotyczącej maszynerii fabrycznej i siły roboczej. Nazywana Dyskusją Bravermana (ang. Braverman Debate) od nazwiska autora, który ją zapoczątkował, ma swoje korzenie w latach 70. XX w., kiedy Harry Braverman opublikował książkę dowodzącą, że zanikanie kwalifikacji wśród robotników jest inherentną cechą kapitalizmu. Głównym powodem tego zjawiska było dążenie menedżerów do uniezależnienia się od wysoko wykwalifikowanych pracowników w celu utrzymania płac na niskim poziomie oraz osłabienia związków zawodowych. Braverman znalazł poparcie dla swojej hipotezy w pismach pionierów filozofii zarządzania. Winston Taylor, postać kluczowa na tym polu, położył podwaliny pod to, co dzisiaj jest znane jako zarządzanie naukowe bądź Tayloryzm. Głównym założeniem zarządzania naukowego jest przekształcenie produkcji w taki sposób, aby poszczególne zadania mogły być wykonywane w ramach prostych rutynowych czynności wymagających od pracowników minimum kwalifikacji. Tayler dowodził, że można to osiągnąć dzięki zastosowaniu maszyn, Braverman wykazał, jak ta strategia została wykorzystana w przemyśle ciężkim w połowie XX wieku. Spostrzeżenie to może służyć jako pryzmat, przez który wskażę na znaczenie komputerów i ich hackowania. Nowość tego podejścia polega na sformułowaniu analizy ruchu hackerskiego z perspektywy produkcyjnej, a nie, jak zazwyczaj, z perspektywy praw konsumenckich. Wykażę, że ewolucja Wolnego i Otwartego Oprogramowania (FOSS, ang. Free and Open Source Software) może być powiązana z przemysłowym konfliktem pomiędzy menedżerami a robotnikami. Co więcej, podkreślę podobieństwa pomiędzy walką robotników z maszynami a walką ruchu hackerskiego z zamkniętym oprogramowaniem. W dziedzinie programowania wolny dostęp do kodu, główny postulat hackerów, stoi w sprzeczności z system fabrycznym i logiką naukowego zarządzania13. Chociaż sytuacja programistów jest pod wieloma względami bardzo różna od sytuacji pracowników fizycznych, w artykule zauważam, że w obliczu gwałtownego postępu technicznego obydwie grupy są żywo zainteresowane zachowaniem kwalifikacji i autonomii pracowników. Żądania hackerów, aby kod źródłowy był w pełni dostępny, mogą być interpretowane jako część strategii mającej na celu zachowanie specjalistycznej wiedzy programisty i kontroli, jaką posiada on nad narzędziami zawodu. Maszyna a praca Ambiwalentne poczucie entuzjazmu i obawy, jakie technika komputerowa wywołuje wśród ludzi, mają historyczne precedensy. W początkowym okresie rewolucji przemysłowej wszystkie grupy społeczne intensywnie debatowały nad konsekwencjami mechanizacji dla człowieka – zarówno społecznymi, jak i duchowymi14. Niektórzy prekursorzy liberalnej teorii ekonomicznej, tacy jak David Riccardo, sami przyznawali, że klasa robotnicza miała realne powody, aby żywić urazę do maszyn fabrycznych15. Niedola, jaka stała się udziałem robotników podporządkowanych maszynom i fabrycznej dyscyplinie, została obrazowo opisana przez Jamesa Kay’a, reformistę społecznego pracującego jako lekarz w slumsach:
13 14 15
G. Hannemyr, Technology and Pleasure: Considering Hacking Constructive, „First Monday” 1999, nr 4(2). M. Berg, The Machinery Question and the Making of Political Economy, Cambridge University Press, Cambridge 1980. D. Riccardo, Principles of Political Economy and Taxation, wyd. 3, 1821.
120
Tak długo, jak działa turbina, ludzie muszą pracować – mężczyźni, kobiety i dzieci sprzęgnięci są z żelazem i parą. Zwierzęca maszyna – zawodna w najlepszym wypadku i narażona na tysiąc gatunków cierpienia – przykuta jest do maszyny z żelaza, która nie zna cierpienia i zmęczenia16.
Dla wczesnych autorów zajmujących się zarządzaniem, takich jak Andrew Ure i Charles Babbage, sytuacja ta stanowiła znakomitą okazję do doradzania właścicielom fabryk w zakresie projektów maszyn tak, aby utrzymywały one robotników posłusznymi i produktywnymi17. Na ich świadectwach opiera się analiza kapitalizmu Karola Marksa, który potępił maszyny fabryczne jako „materialną formę istnienia kapitału”. Sprecyzował on również swoją krytykę techniki, dodając: „Minęło sporo, czasu zanim robotnicy nauczyli się odróżniać maszyny od ich użycia przez kapitał, a przez to kierować swój atak nie przeciwko materialnym instrumentom produkcji, a przeciwko formie społeczeństwa, która takie instrumenty wykorzystuje”18. Marks tym samym potępił strategię niszczenia maszyn, która była cechą charakterystyczną ruchu Luddystów. Luddyści skupiali zgrzeblarzy, tkaczy i rzemieślników obawiających się, że ich zawody są zagrożone wprowadzeniem nowych krosien i reorganizacją przemysłu włókienniczego. Organizowali oni nocne wypady, podczas których niszczyli maszyny włókiennicze i ramy tkackie należące do „majstrów tkackich”. Akcje tego rodzaju nasiliły się w latach 1811–1813 w takim stopniu, że w pewnym momencie Korona Brytyjska była zmuszona wysłać w jeden z regionów aż 14 400 żołnierzy, aby powstrzymać nocne insurgencje. Co ciekawe, przeciwko Luddystom zmobilizowano więcej żołnierzy, niż liczył kontyngent wysłany cztery lata wcześniej do Portugalii przeciwko armii Napoleona19. W swojej klasycznej już dziś rewizjonistycznej analizie powstania Luddystów, Eric Hobsbawm wykazał, że niszczenie maszyn nie było daremnym oporem wobec techniki i postępu, jak potem długo uważano. Hobsbawm uznał je za metodę „negocjacji zbiorowych w formie buntu”. Niszczenie maszyn było jedną z kilku opcji, ale robotnicy mogli również wpływać na pracodawców, podpalając ich magazyny bądź stosując anonimowe pogróżki. Autor doszedł do wniosku, że Luddyści odnieśli nawet skromny sukces, jeśli mierzyć go zdolnością robotników do utrzymania stawek i warunków pracy20. Błędna interpretacja rebelii Luddystów jako szalonej, nieodpowiedzialnej i co najważniejsze niemającej nic wspólnego z polityką przypomina współczesne przedstawienia hackerów w mass mediach. Andrew Ross kilkakrotnie podważał obraz hackera jako drobnego kryminalisty, szczeniackiego żartownisia bądź, dla odmiany, yuppiego Ery Informacji. Podkreślał on, że główną przyczynę awarii komputerowych w firmach stanowi spontaniczny sabotaż podejmowany przez pracowników. Ataki takie nie są zazwyczaj notowane przez policję, gdyż menedżerowie wolą obarczyć nimi wrogów zewnętrznych. Biorąc pod uwagę tę obserwację, Ross proponuje o wiele szerszą definicję hackingu: 16 17 18 19 20
J. Kay, Moral and Physical Conditions of the Operatives Employed in the Cotton Manufacture in Manchester, 1832. A. Ure, The Philosophy of manufactures: or, an exposition of the scientific, moral and commercial economy of the factory system of Great Britain, Knight, Londyn 1835; C. Babbage, On the economy of machinery and manufactures, Kelley, Nowy Jork 1971. K. Marx, Capital, vol. 1, Penguin Books, Londyn 1976. K. Sale, Rebels Against the Future – The Luddites and Their War on the Industrial Revolution, Lessons for the Computer Age, Addison-Wesley Publishing Company, Reading, Mass. 1995. E. Hobsbawm, The Machine Breakers, „Past and Present” 1952, nr 1, s. 57–70.
121
Podczas gdy tylko niewielka liczba użytkowników komputerów określiłaby siebie jako „hackerów”, istnieją solidne przesłanki, aby rozszerzyć wąską definicję hackingu na całą hierarchię analityków systemowych, projektantów, programistów i operatorów, tak aby obejmowała ona wszystkich pracowników sektora komputerowego – niezależnie od poziomu umiejętności – którzy są w stanie przerwać, zakłócić i przekierować gładki przepływ ustrukturyzowanej komunikacji decydujący o ich pozycji w społecznych sieciach wymiany i wpływający na harmonogram ich pracy21.
Podejrzenia Rossa znajdują potwierdzenie w badaniach przeprowadzanych przez organizacje pracodawców. Niszczenie sprzętu komputerowego przez personel jest scenariuszem o wiele bardziej powszechnym, kosztownym i groźnym dla firm niż włamania dokonywane przez zewnętrznych użytkowników. Według sondażu z 1998 roku, przeprowadzonego wspólnie przez Computer Security Initiative i FBI, przeciętny koszt udanego ataku komputerowego w Stanach Zjednoczonych dokonanego przez osobę z zewnątrz wynosił 56 tysięcy dolarów. Dla porównania, przeciętny koszt złośliwych aktów dokonanych przez osoby wewnętrzne (tzn. własnych pracowników) był oceniany na 2,7 miliona dolarów22. Pracownicze zamiłowanie do atakowania komputerów pracodawców podkreśla rolę komputeryzacji w przemianach warunków pracy biurowych pracowników umysłowych. Porównania z sabotażem zaproponowane przez Rossa na pewno spotkają się ze sprzeciwem ze strony „prawdziwych” hackerów. Członkowie ruchu hackerskiego, którzy chcą „pokazywać się na salonach”, usiłują walczyć z negatywnymi stereotypami w mediach przez rozróżnianie pomiędzy tradycyjnymi hackerami a tak zwanymi crackerami. Pierwsze z tych określeń jest zarezerwowane dla kreatywnych zastosowań techniki, które przyczyniają się do społecznie pożytecznych projektów programistycznych. Negatywne konotacje przestępczości komputerowej są zarezerwowane dla drugiej z tych grup23. Przedstawione próby poprawy wizerunku publicznego hackerów podkreślają jedynie historyczne zbieżności ze wspomnianym wyżej buntem pracowniczym. Ruch związkowy również wprowadził korekty do swojej oficjalnej historii, tak, że sabotaż, dzikie strajki i akty przemocy znikły z oficjalnych kart. W gruncie rzeczy związkom zawodowym udało się sformalizować konflikt między pracownikami a kapitałem jako zinstytucjonalizowane negocjacje. Jednocześnie można jednak wykazać, że zbiorowe układy pracy w dalszym ciągu opierają się na ukrytych groźbach sabotażu, strajków i buntów24. W podobny sposób rozróżnienie pomiędzy hackerami a crackerami jest dla mnie samego konstrukcją retoryczną, która nie oddaje pełnego obrazu historycznych korzeni i wzajemnego nakładania się obydwu subkultur, a która stara się przedefiniować konotacje hackingu i wyprofilować je w konkretnym kierunku. Niezależnie od efektywności takiej retoryki, nie da się ukryć, że cyrkulacja „warezów”, łamanie zabezpieczeń i włamania na serwery korporacyjne odgrywają pewną rolę w walce o wolność informacji. Niezależnie od powyższego czytelnik mógłby słusznie zaoponować, że motywacja Luddystów i robotników do odrzucania maszyn fabrycznych 21 22 23 24
A. Ross, Strange Weather – Culture, Science, and Technology in the Age of Limits, Verso, Londyn 1991. B. Shell, J. Dodge, The Hacking of America: Who’s Doing it, Why, and How, Quorum Books, Westport, CT, 2002. Dokument „Jargon file”, uważany za autorytatywne źródło dotyczące slangu hackerskiego, bardzo emfatycznie zaznacza różnicę pomiędzy crackerami a „prawdziwymi” hackerami. http://ur1.ca/f6o3 (dostęp: 27.05.2009 r.). G. Brown, Sabotage – A Study in Industrial Conflict, Spokesman, Nottingham 1977.
122
i biurowych zdecydowanie różni się od motywacji hackerów walczących z zamkniętym oprogramowaniem. Dla tych ostatnich komputery okazują się dobrem konsumpcyjnym i źródłem inspiracji. Co więcej, ich stosunek do techniki to pasja, a nie wrogość. Nawet kiedy hackerzy (crackerzy) sabotują korporacyjne serwery, ich działanie jest aktem radości. Niezadowoleni pracownicy biurowi również mogą znajdować pewną przyjemność w niszczeniu komputerów pracodawców, ale jednocześnie prawdą jest też, że ich działania są spowodowane niezadowoleniem ze swojej sytuacji. Różnica motywacji nie wyklucza jednak możliwości, że hackerzy mają pewne punkty styczne z niegdysiejszymi niszczycielami maszyn. Obydwie grupy są zaangażowane w walkę, która toczy się na terytorium rozwoju technicznego. Może być nawet tak, że pełna pasji afirmacja techniki hackerów stanowi o wiele bardziej podstępną taktykę w porównaniu do, na przykład, powstania Luddystów. Chociaż z jednej strony nie można powiedzieć, że Luddyści odrzucali technikę jako taką, jest też prawdą, że bronili starszych technologii przed nowym systemem fabrycznym na znacznie większą skalę. Z perspektywy czasu wydaje się więc, że ich sprawa była z góry skazania na porażkę. Z drugiej strony, hackerzy posiadają swoją własną technologię, z której korzystają. Mogą też wiarygodnie twierdzić, że ich model pisania kodu jest o wiele bardziej zaawansowany niż „fabryczny model” rozwoju zamkniętego oprogramowania. Kwalifikacje – zanikanie wśród robotników, zmiana wśród użytkowników Obecna sytuacja, w której hackerzy mogliby odebrać technikę komputerową korporacjom i instytucjom rządowym, jest wynikiem dziwnej dialektyki. Wskazówki na temat tego, jak w ogóle do niej doszło, ukryte są w tzw. Dyskusji Bravermana, która toczyła się w kontekście sugestii o nadejściu Ery Postindustrialnej25. Dwadzieścia lat później ta sama idea została przepakowana jako nastanie Ery Informacji bądź „społeczeństwa sieciowego”. Pojawia się ona w wielu odmianach, ale wszystkie łączy wizja jasnej przyszłości, w której kapitalizm wyewoluuje poza konflikty klasowe i monotonię pracy. Ważne jest to, że zmiana ta nie jest wynikiem walki społecznej, a wyłącznie konsekwencją trajektorii rozwoju technicznego. Harry Braverman skrytykował jedno z głównych założeń tej koncepcji, dotyczącej tego, że kwalifikacje robotników zostaną podniesione w wyniku zamiany stanowisk fizycznych na umysłowe. Twierdził on, że logika kapitału opiera się na zanikaniu kwalifikacji siły roboczej niezależnie od tego, czy znajduje ona zatrudnienie w fabryce, czy w biurze. Zamiast tendencji ogólnego podnoszenia kwalifikacji w społeczeństwie Braverman przewidział, że wzrost tzw. gospodarki usługowej doprowadzi do sytuacji, w której pracownicy umysłowi staną w obliczu uproszczenia i utraty kwalifikacji, tak samo jak miało to wcześniej miejsce w przypadku pracowników fizycznych. Zdecydowanie najważniejszym elementem nowoczesnej produkcji jest rozbicie złożonych procesów na proste zadania wykonywane przez robotników, których wiedza jest niemal zerowa, których tak zwane szkolenie jest krótkie i którzy w konsekwencji mogą być traktowani jak wymienne części26.
Stwierdzenie to zostało odparte przez socjologów przemysłu. Przyznali oni, że w tradycyjnych gałęziach przemysłu dochodzi do zaniku kwalifikacji, ale 25 26
D. Bell, The Coming of Post-Industrial Society: A Venture in Social Forecasting, Basic Books, Nowy Jork 1973. H. Braverman, Labor and Monopoly Capital, „Monthly Review Press”, Nowy Jork 1998.
123
jednocześnie udowadniali, że trend ten jest przeciwważony tworzeniem nowych stanowisk o wyższych kwalifikacjach w innych rejonach gospodarki. Na pierwszy rzut oka pojawienie się zawodu programisty wydaje się potwierdzać tezy krytyków Bravermana. Jeden z nich, Stephen Wood, zarzucił Bravermanowi idealizowanie XIX-wiecznych rzemieślników. Wood wskazał upowszechnienie umiejętności czytania i pisania jako dowód na wzrost kwalifikacji w nowoczesnym społeczeństwie27. Jego komentarz jest intrygujący, gdyż uwypukla niuanse, które zanikły w tej gwałtownej wymianie stanowisk. Celem kapitału jest nie zanik kwalifikacji jako takich, a uczynienie pracowników zastępowalnymi. Kiedy zadania i kwalifikacje stają się ustandaryzowane, siła robocza traci na wartości w obliczu podaży i braku siły politycznej. Z tego punktu widzenia nie ma znaczenia, czy kwalifikacje pracowników wyrównują się na niższym, czy wyższym poziomie. Powszechna umiejętność czytania i pisania jest przykładem tego drugiego zjawiska. W tym kontekście umiejętność czytania i pisania może być uznana za analogiczną do propagowanej obecnie umiejętności obsługi komputera (ang. computer literacy) i kampanii na rzecz zasypania „cyfrowej przepaści” (ang. digital gap). Na pierwszy rzut oka, w społeczeństwie którego obywatele umieją używać komputery, kwalifikacje się podnoszą. Można by podejrzewać, że jednym z bodźców tego zjawiska jest fakt, iż umiejętność obsługi komputera zmniejsza inercję w uczeniu się w najszerszym tego słowa znaczeniu, czyli redukuje czas, jaki ludziom zabiera uczenie się nowych umiejętności. Kiedy pracownicy opanowali podstawowe umiejętności nawigacji w środowisku cyfrowym, nauczenie się nowego zawodu w sytuacji, kiedy stary przestał być użyteczny, wymaga o wiele mniejszego wysiłku. Przedstawiona, nieco cyniczna interpretacja umiejętności obsługi komputera może być wykazana na przykładzie przemysłu drukarskiego. Tradycyjne rzemiosło składu drukarskiego i druku wymagało wielu lat nauki oraz sporego i drogiego zaplecza. Związkowa zadziorność, jaka charakteryzowała przemysł drukarski, była oparta na takim właśnie monopolu jego pracowników. Wprowadzenie do składu i druku komputerów miało decydującą rolę w złamaniu siły pracowników typograficznych28. Komputer osobisty można uznać za przedłużenie tego procesu. Dzięki mediacji oprogramowania pojedyncza umiejętność nawigacji w interfejsie graficznym przekłada się na wiele innych umiejętności. Przykładowo, mając komputer z GNU/Linuksem i Scribusem, użytkownik może opanować język maszynowy komputera i imitować rzemiosła produkcji grafik i składu tekstu. W porównaniu do czasu, jaki musiał upłynąć zanim pracownik graficzny opanował rzemiosło, użycie tych programów wymaga jedynie krótkiego szkolenia. Przykład ten pokazuje, w jaki sposób umiejętność obsługi komputera redukuje inercję ludzkiego uczenia się i czyni kwalifikacje pracowników wymiennymi. Liberalni autorzy postrzegają ten proces jako przykład liniowego przyrostu uczenia się i edukacji właściwych dla tak zwanego społeczeństwa wiedzy. Z punktu widzenia teorii procesów pracy jest dokładnie odwrotnie, ta sama zmiana jest postrzegana jako degradacja kwalifikacji pracowników i w ostatecznym rachunku prowadzi do osłabienia pozycji związków zawodowych. Klasyczne opracowanie Davida Noble’a dotyczące wprowadzenia sterowania urządzeń numerycznych w przemyśle ciężkim w połowie XX wieku stanowi brakujące ogniwo pomiędzy bravermanowskim omówieniem zaniku kwalifikacji a obecnymi debatami dotyczącymi komputerów i hackerów. Praca 27 28
S. Wood, The Degradation of Work? Skill, Deskilling and the Labour Process, Hutchinson, Londyn 1982. A. Zimbalist, A Case Studies of the Labor Process, „Monthly Review Press” 1979.
124
Noble’a pokazuje to, w jaki sposób uniwersalność komputera miała pierwotnie działać na korzyść menedżerów, pełnych nadziei, że osłabi ona pozycję wszechstronnych i wykwalifikowanych operatorów maszyn. Wcześniejsze wyspecjalizowane urządzenia nie zdołały wyprzeć tych pracowników z rynku, gdyż poszczególne fazy procesów produkcyjnych wciąż musiały być koordynowane z załogą. Dla kontrastu, maszyny ogólnego zastosowania symulowały wszechstronność człowieka i były lepiej przystosowane, aby go zastąpić29. Przywołany historyczny łącznik jest bardzo ważny, ponieważ obecnie powszechnie uważa się, że uniwersalność komputerów jest inherentną cechą samych technologii informacyjnych. Tym samym trajektoria rozwoju w kierunku uniwersalnych narzędzi jest oderwana od swojego kontekstu walki pracodawców i pracowników, a przypisywana łasce rozwoju technicznego. Wszystko to nie zobowiązuje do potępienia tendencji w kierunku wyrównywania kwalifikacji produkcyjnych i rozwoju uniwersalnych narzędzi, takich jak komputery. Wręcz przeciwnie – w kontraście do negatywnego obrazu Harry’ego Bravermana jak neoluddysty, sam autor uważał, że konsolidacja potencjału siły roboczej dzięki maszynom zawierała w sobie pozytywny potencjał. Konsolidujący proces, w ramach którego wykonanie wszystkich kroków wbudowane jest w mechanizm pojedynczej maszyny wydawałbym się odpowiednim dla kolektywu powiązanych ze sobą producentów, z których żaden nie potrzebuje spędzać całego życia na wykonywaniu jednej czynności, a wśród których wszyscy mogą uczestniczyć w budowie, projektowaniu, usprawnianiu, naprawie i działaniu coraz bardziej wydajnych urządzeń30.
Dzięki uniwersalnemu narzędziu, jakim jest komputer i niemal uniwersalnej umiejętności obsługi komputera, ludzie mogą angażować się w jakąkolwiek – i więcej niż jedną – aktywność produkcyjną. Przedstawiony punkt widzenia pozwala zrozumieć obecny trend „usamodzielnienia użytkowników”. Innymi słowy, dokonane za pomocą powiązanych ze sobą procesów utraty i zmiany kwalifikacji, pozbawienie zorganizowanego ruchu związkowego silnej pozycji w dziedzinie aparatu produkcji kapitalistycznej przygotowało podwaliny pod innowacyjne projekty oparte na komputerach, a nakierowane na użytkowników. Ponieważ oprogramowania, takie jak Inkscape czy Scribus oraz ich „zamknięte” odpowiedniki, zastępują tradycyjne formy składu i druku, wiele osób może produkować plakaty i ulotki znajdujące bezpośrednie zastosowanie w ich lokalnych konfliktach. Kontrola aktywności produkcyjnej obecnie przychodzi firmom o wiele trudniej niż w czasach, kiedy narzędzia pracy znajdowały się w rękach nielicznych, choć relatywnie silnych, pracowników. Zasady, jakie obowiązują w projektach graficznych, mają swoje odniesienie do programowania i rozwoju technologii komputerowych. I tutaj wysuwa się na pierwszy plan Janusowa twarz oprogramowania: ta sama elastyczność i precyzja, z jakimi kod może być zaprojektowany w celu kontroli podległych pracowników, pozwalają wielu innym osobom na udział w jego pisaniu. Chociaż embrionalne formy techniki komputerowej, takie jak maszyny numeryczne, zostały wprowadzone do miejsc pracy przez menedżerów pragnących uniezależnić się od wykwalifikowanych i należących do
29 30
D. Noble, Forces of Production – A Social History of Industrial Automation, Alfred A Knopf, Nowy Jork 1984. H. Braverman, Labor and Monopoly Capital: The Degradation of Work in the Twentieth Century, „Monthly Review Press” 1998.
125
związków zawodowych pracowników, technika komputerowa przyczyniła się również do ustanowienia – jako produktu ubocznego – procesów produkcyjnych zorientowanych na użytkownika i częściowo niezależnych od menedżerów i zakładów pracy. Ruch wolnego oprogramowania i jego społeczność może być uznany za przykład tego procesu. Wolne oprogramowanie jako strategia związkowa Korporacyjne wsparcie społeczności programistów Wolnego i Otwartego Oprogramowania (WiOO) musi być rozpatrywane w kontekście zmienionego rynku pracy. W ciągu kilku ostatnich dziesięcioleci socjologowie przemysłowi udokumentowali trend, w ramach którego fabryka traci swoją wcześniejszą pozycję jako model produkcyjny. Miejsce produkcji stało się w dużej mierze zdecentralizowane, przekształcając się w sieć podwykonawców, ochotników, domowych projektów i franczyzobiorców31. Firmy mogą obecnie dodawać ochotnicze społeczności programistów do listy heterogenicznych form pracy zlecanej. Zadania są zlecane jednostkom zewnętrznym przy pełnej ich otwartości istoty (ang. outsourced and open sourced). Możliwość radykalnej redukcji kosztów osobowych w przypadku obsługi oprogramowania przyciąga do Wolnego i Otwartego Oprogramowania instytucje rządowe, sprzedawców, dostawców usług i producentów urządzeń. Oszczędności dokonywane przez takich gigantów, jak IBM, Armia Amerykańska i miasto Monachium, aby wymienić tylko kilka najbardziej znanych przykładów, stworzyły niszę dla wyspecjalizowanych firm softwarowych sprzedających wolne oprogramowanie i usługi. Wnioski te zbiegają się ze spostrzeżeniem Tiziany Terranovej, że zaangażowanie darmowej siły roboczej stało się jednym z filarów gospodarki kulturalnej. Terranova podważa nadzieje i twierdzenia dotyczące trendu aktywnej konsumpcji mediów, początkowo wychwalanego w kulturoznawstwie od lat 80. XX w., a ostatnio uaktualnionego w postaci medialnego szumu wokół Sieci 2.0. W odpowiedzi na często niepoparte dowodami wywody wykazała, że w swoich strategiach biznesowych kapitał od dawna zakładał istnienie aktywnych konsumentów32. Stanowisko to koryguje bezkrytyczne oceny subkultury fan fiction, licencji creative commons i innych form mediów partycypacyjnych. Mimo to lewicujący krytycy, tacy jak Terranova, moim zdaniem, zbyt pochopnie piętnują ekonomiczną eksploatację pracy ochotniczej, co uniemożliwia im dostrzeżenie możliwości zmiany politycznej obecnej w niektórych z wymienionych wyżej przypadków. Adekwatność moich obiekcji może być wykazana na podstawie konkretnych przykładów. O ile zgadzam się, że interaktywność gier wideo i ochotniczy wysiłek autorów fan fiction nie rokują nadziei na znaczącą zmianę polityczną, o tyle interaktywność i altruizm autorów wolnego oprogramowania nie mogą być mierzone tą samą miarą. Należy wziąć pod uwagę, że kod jest udostępniany razem z wyraźnie wyartykułowanym celem politycznym: uczynienie z wolnego oprogramowania standardu w przemyśle komputerowym. Oczywiście taka pozycja nie jest antykomercyjna w potocznym rozumieniu tego słowa. Jak wiadomo, licencja GPL chroni prawa użytkownika do uruchomienia oprogramowania w jakimkolwiek celu, włącznie z celami komercyjnymi33. W praktyce opcja ta jest 31 32 33
R. McChesney, E. Wood, J. Foster, Capitalism and the Information Age: The Political Economy of the Global Communication Revolution, „Monthly Review Press” 1998. T. Terranova, Free Labour: Producing Culture for the Digital Economy, „Social Texts” 2000, nr 18, s. 33–57. J. Gay, Free Software, Free Society: Selected Essays of Richard M. Stallman, Cop, Boston 2002.
126
poważnie ograniczona faktem, że GPL zezwala, aby sprzedane kopie były powielane i rozdawane za darmo. O ile darmowa licencja jest perfekcyjnym składnikiem wyidealizowanego wolnego rynku, o tyle niezbyt pasuje do rynku istniejącego faktycznie, który zawsze zakłada quasi-monopole i regulacje państwowe34. Powyższe w pewnym stopniu wyjaśnia również, dlaczego polityczna prawica ma ambiwalentny stosunek do licencji wolnego oprogramowania. Samozwańczy libertarianie, tacy jak Eric Raymond, postrzegają rozwój otwartych modeli biznesowych jako pewne przybliżenie wolnego rynku. Ocena taka podszyta jest rozumieniem kapitalizmu jako zjawiska identycznego z jego instytucjami – własnością prywatną, wolnymi rynkami i kontraktami. Interpretacja ta ignoruje jednak inną możliwą definicję kapitalizmu, która akcentuje kapitał jako samorzutną ekspansję pieniądza czy też, innymi słowy, akumulację. Ostatnie założenie stanowi centralny element marksistowskiej analizy kapitalizmu, ale bliskie jest również „kapitanom przemysłu”. Mając to na względzie, interesującymi wydają się ustalenia jednego z badań rynkowych, według którego wdrażanie Wolnego i Otwartego Oprogramowania przez firmy kosztuje producentów zamkniętego oprogramowania 60 miliardów dolarów rocznie. Co więcej, straty sprzedawców zamkniętego oprogramowania są niewspółmierne do wielkości nowych rynków WiOO z bardzo prostego powodu – znaczna część tego oprogramowania nie jest kupowana35. W konsekwencji opór wobec WiOO w niektórych sektorach przemysłu nie jest pozbawiony podstaw, jak często jest przedstawiany. Konflikt ten osiągnął punkt kulminacyjny w czasie sprawy sądowej pomiędzy SCO Group a korporacyjnymi sprzedawcami GNU/Linuksa, która zakończyła się w 2007 roku. W czasie jej trwania dyrektor zarządzający SCO Group, Darl McBride, wystosował do Kongresu USA otwarty list, w którym oskarżył swoich rywali o naiwność w popieraniu licencji WiOO: Niezależnie od tego, zamierzamy doprowadzić te sprawy sądowe do końca, ponieważ mocno wierzymy, że niekontrolowany rozwój otwartego oprogramowania na licencji GPL jest o wiele większym zagrożeniem dla naszego systemu kapitalistycznego niż amerykańskie korporacje podejrzewają36.
W najlepszym przypadku takie obawy niektórych członków przemysłu komputerowego dowodzą, że autorzy wolnego oprogramowania nie mogą być traktowani jako nieświadome ofiary komercyjnej eksploatacji. Być może właściwszym byłoby stwierdzić, że oferując swoją pracę za darmo, hackerzy szantażują korporacje, aby te przyjęły i rozpowszechniały model rozwoju Wolnego i Otwartego Oprogramowania. Żadna firma, kierująca się imperatywem jak najniższych kosztów, nie może sobie pozwolić na walkę z darmową – prawdziwie darmową – pracą. Moja hipoteza opiera się na założeniu, że poparcie dla otwartych licencji powinno być odczytane w kontekście wyłaniającej się profesji programistów komputerowych. Sugestia ta nie jest wcale aż tak oczywista, gdyż tożsamość hackera jest powiązana z postacią hobbysty, kogoś, kto nie posiada zawodu i nie jest zatrudniony. Wbrew temu narzuconemu zresztą 34 35
36
K. Polanyi, The Great Transformation: The Political and Economic Origins of Our Time, Beacon Press, Boston 2001. Wspomniany raport rynkowy nosi tytuł Trends in Open Source i został opublikowany przez Standish Group. Ponieważ dostęp do tego materiału jest ograniczony, informacje na jego temat pochodzą z mediów. M. Broersma, Proprietary Vendors Lose £30bn to Open Source, April 2008. http://ur1.ca/f6o4 (dostęp: 1.11.2009 r.).
127
przez samych zainteresowanych stereotypowi, liczby jasno wykazują, że znaczna większość osób zaangażowanych w projekty wolnego oprogramowania albo pracuje w przemyśle komputerowym, albo kształci się w tym zawodzie37. W konsekwencji nie jest wcale aż tak trudno połączyć kropki między hakerami a rynkiem pracy, jaki na nich czeka. Powyższa linia rozumowania została już zresztą przedstawiona w słynnym artykule Josha Lernera i Jeana Tirole38, którzy usiłowali pogodzić rzekomy altruizm autorów wolnego oprogramowania z założeniami neoklasycznej teorii gospodarczej dotyczącej „racjonalnego człowieka gospodarki”. Obydwaj autorzy doszli do konkluzji, że hackerzy rozdają kod za darmo, aby wyrobić sobie reputację i zwiększyć szansę późniejszego zatrudnienia. Nie twierdząc, że takie przypadki nie istnieją, nie zgadzam się z takim założeniem metodologicznego indywidualizmu, na jakim oparte jest ich rozumowanie. Kiedy twierdzę, że licencje wolnego oprogramowania mogą pozytywnie wpływać na interesy pracownicze programistów, nie mam na myśli, że jest to racjonalnie wykalkulowana strategia bądź też pełne wyjaśnienie, dlaczego hackerzy opatrują swój kod licencjami GPL (General Public License ). Co więcej, w odróżnieniu od Lernera i Tirole, nie uważam, że tego rodzaju interesy pracownicze są chronione jedynie przy użyciu jednostkowych strategii. Oprócz poprawy swojej reputacji, poszczególni hackerzy przyczyniają się do zmian rynku pracy programistów jako zbiorowości. Fakt, że programiści poprawiają swoją pozycję przetargową w stosunku do firm, rozdając swoją pracę potencjalnym pracodawcom, wydaje się przeczyć intuicji. Zacznę więc od nawiązania do spostrzeżenia Harry’ego Bravermana, który podkreślił, że sama produkcja fabryki stawiała operatorów maszyn w niekorzystnej sytuacji. Robotnik mógł wykorzystywać swoje kwalifikacje jedynie wtedy, kiedy miał dostęp do maszyn. Niestety, już sama skala i model organizacji zakładu przemysłowego sprzyja hierarchii. Kapitalista posiadał przewagę jako właściciel maszyn i budynków, bez których robotnicy nie mogli wykorzystywać swoich kwalifikacji. Jedyną kartą przetargową, jaką posiadali, były ich kwalifikacje i dogłębna znajomość procesu produkcyjnego – tym właśnie Braverman wyjaśnia kapitalistyczną tendencję poszukiwania technologii redukujących znaczenie wykwalifikowanej siły roboczej. Od czasu analizy Harry’ego Braveramana w latach 70. XX w. Fordystyczny park maszynowy na wielką skalę stał się w wielu gałęziach gospodarki po prostu przestarzały. Stało się tak szczególnie w przemyśle komputerowym. Narzędzia (komputery, sieci komunikacyjne, algorytmy i treści informacyjne) dostępne są w takich ilościach, że stały się powszechnym standardem, a nie narzędziem w walce z innymi właścicielami (kapitalistami) i progiem dla nieposiadających (robotników). Od wczesnych lat 80. XX w. pisał o tym trendzie cały tłum socjologów przemysłu i filozofów zarządzania39. W literaturze tej truizmem jest twierdzić, że to pracownicy, a nie park maszynowy, są obecnie najcenniejszym bogactwem nowoczesnej korporacji. Twierdzenie to jest opakowane retoryką, ale jego prawdziwość może być sprawdzona w kontekście umów poufności 37
38 39
K. Lakhani, R. Wolf, Why Hackers Do What They Do: Understanding Motivation and Effort in Free/Open Source Projects [w:] Perspectives on Free and Open Source Software, red. J. Feller, B. Fitzgerald, S. Hissam, K. Lakhani, M. Cusumano, C. Shirky, MIT Press, Cambridge 2005, s. 177 J. Lerner, J. Tirole, Some Simple Economics of Open Source, „Journal of Industrial Economics” 2002, nr 50(2), s. 197–234. S. Zuboff, In The Age Of The Smart Machine: The Future Of Work And Power, Basic Books, Nowy Jork 1998.
128
w przemyśle komputerowym, które stypulują, że pracownik nie może przekazywać dalej poufnych informacji dotyczących firmy. Inną klauzulą umieszczaną czasem w umowie pracy, a mającą w praktyce ten sam efekt, jest zakaz pracy nad podobnymi projektami u konkurencji po odejściu od obecnego pracodawcy. Umowy takie można uznać za dowód, że wiedza i kwalifikacje programistów faktycznie stały się na tyle cenne dla firm, aby objąć je kontrolą. Stoję na stanowisku, że praktyki takie, formalnie mające mało wspólnego z prawem własności, faktycznie stanowią dowód mojej tezy, że zamknięte i otwarte licencje mają wpływ na pozycję przetargową autorów oprogramowania. Uzasadnieniem dla tego rodzaju umów kontraktowych jest konieczność zapobieżenia wyciekowi informacji do konkurencji. Jednocześnie jednak, jako efekt uboczny, programiści są pozbawiani możliwości zmiany miejsca pracy na równorzędne. Jako że przeciętny programista staje się specjalistą w dziedzinie, w której pracował, znalezienie pracy na stanowisku o innej specjalności może nastręczać trudności. Znaczenie tego zjawiska staje się bardziej oczywiste w kontekście etnograficznego opracowania dotyczącego techników oprogramowania pracujących w firmie komputerowej w Irlandii autorstwa Seana O’Riaina. Związkom zawodowym jest bardzo trudno zorganizować takich pracowników. Praca ma zazwyczaj charakter zadań zleconych, zbiorowe strategie związkowe nie mają zastosowania. O’Riain konkluduje między innymi, że mobilność stała się jednym z głównych argumentów, za pomocą których pracownicy negocjują warunku pracy i płacę40. Mając to na uwadze, znaczenie umów kontraktowych musi zostać zrewidowane. Ograniczenia, jakie nakładają one na zdolność pracowników do „głosowania nogami”, oznacza odzyskanie przez firmy przewagi. Jeśli chodzi o stopień, w jakim umowy poufności i inne klauzule są używane we wspomniany makiaweliczny sposób, to wciąż brakuje badań empirycznych. Mnie samego interesuje fakt, że taki sam argument może odnosić się bardziej ogólnie do licencji zamkniętego oprogramowania. Pojęcie własność intelektualna41 jest również uzasadniane przez firmy koniecznością ochrony wiedzy przed konkurencją. Dodatkowym usprawiedliwieniem jest to, że własność intelektualna jest konieczna, aby producenci mogli pobierać opłaty za informacje od konsumentów. Jednocześnie jednak własność intelektualna może też wpływać na relacje pomiędzy firmą a jej pracownikami, ten aspekt problemu jest poruszany o wiele rzadziej. Można by wykazać, że licencje oprogramowania zamkniętego zapobiegają mobilności pracowników, sprawiając, że wiedza zatrudnionych programistów jest uwięziona w zamkniętym standardzie należącym do danej firmy. Nasuwa się tu porównanie do pracowników fizycznych i ich zależności od parku maszynowego stanowiącego własność przemysłowca. Bez dostępu do fabryki robotnik nie może produktywnie wykorzystać swoich kwalifikacji. W przemyśle komputerowym większość narzędzi pracy programisty jest dostępna jako tanie dobra konsumenckie (komputery, itd.). W związku z tym firma zapewniająca je pracownikowi nie posiada nad nim przewagi. Kiedy jednak 40 41
S. O’Riain, Net-Working for a Living: Irish Software Developers in the GlobalWorkplace [w:] Cultural Economy Reader, red. A. Ash, N. Thrift, 2004. Wielu krytyków prawa własności i patentowego odrzuca termin własność intelektualna, który ich zdaniem jest nacechowany mylnymi konotacjami. Zamiast niego proponują termin monopol intelektualny. Jednak ich argumentacja nie przekonuje mnie, ale niestety ograniczenia objętości nie pozwalają mi rozwinąć kontrargumentu. Niemniej jednak w artykule będę używał określenia własność intelektualna, ponieważ uważam, że porównania z innymi rodzajami własności są jak najbardziej uzasadnione.
129
kod źródłowy jest obwarowany prawem autorskim i patentami, dostęp do narzędzi pracy wymaga znacznych nakładów kapitałowych. W konsekwencji licencja oprogramowania daje firmie przewagę nad pracownikiem-programistą. Rozumowanie teoretyczne jest trudniejsze do wykazania empirycznie niż wcześniejsze stwierdzenie, że klauzule w umowie pracy mogą być użyte do ograniczenia mobilności programistów, ale może mieć ono o wiele większe znaczenie dla warunków pracy w sektorze komputerowym. Produkcyjnie zorientowany aspekt licencji zamkniętego oprogramowania może być faktycznie tak samo ważny jak oficjalnie przedstawiane uzasadnienie dla prawa własności intelektualnej, tzn. regulacja stosunków pomiędzy firmą a jej klientami i konkurencją. Jeśli moje dotychczasowe rozumowanie jest poprawne, licencje GPL powinny być interpretowane w tym samym świetle. Doszedłem do tego wniosku podczas lektury wyczerpującego opracowania modelu rozwoju WiOO autorstwa Glyna Moody’ego. Zauważył on następującą rzecz dotyczącą wyjątkowych warunków dla firm specjalizujących się w sprzedaży usług związanych z wolnym oprogramowaniem: Ponieważ „produkt” jest otwarty i powszechnie dostępny, firmy muszą opierać się na innym rodzaju rzadkości: kwalifikacjach osób piszących i obsługujących oprogramowanie42.
Innymi słowy, kiedy kod źródłowy staje się publicznie dostępny w ramach licencji GPL, jedyną rzeczą, jaka pozostaje rzadkością na rynku, są kwalifikacje wymagane do produktywnego zastosowania narzędzi programistycznych. A te zasoby są cechą „pracy żywej”, aby użyć sformułowania Marksa. W ten sposób programiści mogą zdobyć przewagę nad pracodawcami podczas negocjacji dotyczących płacy i warunków pracy. Licencje wolnego oprogramowania wyrównują szanse, zapewniając wszystkim taki sam dostęp do kodu źródłowego. Terranova i myślący jak ona badacze mają rację, twierdząc, że międzynarodowe korporacje posiadają lepszą pozycję wyjściową przy wykorzystaniu komercyjnej wartości wolnego oprogramowania niż pojedynczy programiści. Mierzone liczbami absolutnymi, oszczędności IBM wynikające z użycia Apache na serwerach są wielokrotnie większe niż korzyści jakiegokolwiek programisty, który przyczynił się do powstania tego oprogramowania. Z innej perspektywy jednak programista znajduje się w lepszej sytuacji, jeśli istnieje rynek pracy autorów wolnego oprogramowania w porównaniu do sytuacji, kiedy taki zawód nie istnieje. Udostępniając programy na zasadzie otwartych licencji, hacker nie tylko poprawia swoją reputację i perspektywy zawodowe, jak wcześniej podkreślili to Lerner i Tirole. Przyczynia się również do ustanowienia rynku pracy, na którym i jego, i innych obowiązują nowe zasady. Można więc takie działanie interpretować jako rodzaj akcji zbiorowej przystosowanej do czasów agresywnego indywidualizmu. Wciąż nie wiadomo, czy powstanie rynku rozwoju wolnego oprogramowania przełoży się na lepsze warunki pracy, wyższe pensje i inne zyski normalnie związane z aktywnością związków zawodowych. Hipoteza taka wymaga danych empirycznych. Potrzebne są badania porównawcze programistów wolnego oprogramowania pracujących na własny rachunek i tych pracujących z oprogramowaniem zamkniętym. Porównania takie nie powinny jednak koncentrować się jedynie na aspekcie monetarnym, równie ważny jest subiektywny aspekt programowania. Przykładem tego jest cały szereg doniesień, że hackerzy uważają udział w otwartych projektach za o wiele bardziej satysfakcjonujący niż pracę 42
G. Moody, Rebel Code: Linux and the Open Source Revolution, Penguin, Londyn 2001.
130
z kodem oprogramowania zamkniętego43. Nie wierzę również, że pośrednie strategie związkowe są jedynym wyjaśnieniem tego, dlaczego hackerzy udostępniają kod na podstawie licencji GPL. Możliwe, że troska o wolności obywatelskie i etos antyautorytarny subkultury hackerskiej są ważniejszymi czynnikami. Hackerzy są zbyt zróżnicowanym środowiskiem, aby stosować do nich jedno wyjaśnienie. Ośmielam się jednak stwierdzić, że perspektywa pracownicza zasługuje na o wiele większą uwagę niż poświęcono jej do tej pory w prasie popularnej i literaturze naukowej. Chociaż nie brakuje krytyk prawa własności intelektualnej, obiekcje te są zazwyczaj formułowane jako obrona praw konsumenckich i opierają się na liberalnej tradycji politycznej. Istnieją oczywiście godne uwagi wyjątki. Postacie, takie jakie Eben Moglen, Slavoj Žižek czy Richard Barbrook nie zgadzają się z ideologią liberalną, jaką podszyta jest znaczna część dyskusji dotyczących Internetu i powiązanych z nim zagadnień, i zwracają się do rewolucyjnej retoryki Drugiej Międzynarodówki. Propozycje ich są oryginalne, przykuwają uwagę i są nacechowane przenikliwymi spostrzeżeniami. Mimo to rewolucyjna retoryka nie brzmi dobrze, kiedy odnosi się ją do pragmatycznych hackerów. Zwolennicy wolnego oprogramowania skorzystają, jeśli poszukają przeciwwagi dla hegemonii liberalizmu w reformistycznym odłamie ruchu pracowniczego, w ruchu związkowym. Uważam, że taka strategia zyska na znaczeniu wraz z rozwojem przemysłu komputerowego. Według głównej linii rozumowania Harry’ego Bravermana zawód inżyniera-programisty już teraz został pozbawiony znacznej części niegdysiejszego statusu. Począwszy od wczesnych lat 60. XX w., autorzy artykułów w periodykach menedżerskich bezustannie nawołują do podporządkowania programistów temu samemu reżimowi fabrycznemu, jaki uprzednio i częściowo dzięki wprowadzeniu urządzeń komputerowych został narzucony pracownikom fizycznym44. Mając ten wycinek historii na względzie, chciałbym zasugerować, aby zwolennicy wolnego oprogramowania, zamiast opierać się na konstytucjonalnej wolności słowa, poszukali inspiracji w „Technicznej Karcie Praw”. Następujące oświadczenie zostało wydane w 1981 roku przez International Association of Machinists w samym środku gwałtownego konfliktu w przemyśle: Nowe technologie automatyzacji i nauka, na jakiej się one opierają, są produktem globalnej i trwającej od wieków akumulacji wiedzy. W związku z tym, ludzie pracy i ich społeczności mają prawo uczestniczyć w decyzjach dotyczących jak i w zyskach z nowych technologii45.
Podziękowania Autor chciałby podziękować redaktorowi Stianowi Rřdven Eide, a także Michaelowi Widerkrantzowi i Donowi Williamsowi za konstruktywne komentarze dotyczące wcześniejszych wersji niniejszego artykułu.
43
44 45
K. Lakhani, R. Wolf, Why Hackers Do What They Do: Understanding Motivation and Effort in Free/Open Source Projects [w:] Perspectives on Free and Open Source Software, red. J. Feller, B. Fitzgerald, S. Hissam, K. Lakhani, M. Cusumano, C. Shirky, MIT Press, Cambridge 2005, s. 177 G. Dafermos, J. Söderberg, The Hacker Movement as a Continuation of Labour Struggle, „Capital & Class” 2009, nr 97, s. 53–73. H. Shaiken. Work Transformed: Automation and Labor in the Computer Age, Lexington Books, Lexington, Mass. 1986.
131
Postmediacje
Sztuka mediów
Wirtualne samobójstwo jako definitywny akt polityczny Geoff Cox
Pierwotnie artykuł ukazał się w wersji angielskiej: G. Cox, Virtual Suicide as Decisive Political Act [w:] Media activism and biopolitics. Critical media interventions in the age of biopower, red. T. Hug, W. Sützl, Innsbruck University Press, Innsbruck 2011, s. 103-116. Tłumaczenie: Ewa Zabrotowicz
133
134
Przedmowa „Samobójstwo jest definitywnym aktem politycznym naszych czasów” stwierdził Franco Berardi – symbolizuje komunikatywne oddziaływanie sztuki oraz patologię systemu psychospołecznego1. Na poparcie tezy Berardiego można przytoczyć liczne przykłady, które przedstawiają akt samobójczy jako znamienny dla bardziej ogólnych i paranoicznych aspektów kultury współczesnej. Oczywistym tłem dla takich stwierdzeń są nowojorskie zamachy z 11 września 2001 r.: warto przypomnieć sobie niesławne uwagi Karlheinza Stockhausena opisującego te wydarzenia jako „największe dzieło sztuki wszech czasów” czy spostrzeżenie Slavoja Žižka, że „Ameryka dostała to, o czym fantazjowała” (jak gdyby zrealizował się scenariusz hollywoodzkiego filmu katastroficznego)2. Fakt, że wydarzenia te bezustannie wpływają na teraźniejszość, doprowadził Richarda Grusina do wniosku, że w logice kultury następuje zauważalna zmiana: od rozważania przeszłych faktów do planowania przyszłych wydarzeń i możliwości3. Dowodził on, że od czasu zamachów z 11 września 2001 r. (i od wydarzeń z Abu Ghraib), planując przyszłość, próbuje się ją naprawić, jeszcze zanim stanie się ona teraźniejszością, wskutek czego doświadcza się „zbiorowej halucynacji”, w której można wyobrażać sobie przyszłe scenariusze i zagrożenia dla życia, jeszcze zanim one faktycznie zaistnieją. Zjawisko to opisano jako wyprzedzający atak na kulturową wyobraźnię. Także dla Berardiego kluczowy problem polityczny wiąże się z mechanizmami kontroli nad imaginacją (2009)4. Jakie zatem możliwości ma wyobraźnia radykalna, gdy dominującą siłą stało się ujednolicające oddziaływanie neoliberalizmu? Jeśli nawet uzna się deklarację „końca historii” Francisa Fukuyamy za fantasmagoryczną i przedwczesną, mówi ona jednak coś o współczesnych czasach postpolitycznych, w których targnięcie się na własne życie może stać się skuteczną krytyką represyjnego reżimu. W tym znaczeniu wszelkie próby samobójcze można uważać za atak wyprzedzający oraz za oznakę głębokiej niewiary w możliwość skutecznego działania. Podobnie biopolityczny reżim sekurytyzacji wymaga, by technologie działały na podstawie afektywnych stanów czujności i łączności, co Grusin określał mianem komercyjnych technologii planowania5. Przykładem tej tendencji jest projekt zatytułowany The Night of Bush Capturing: A Virtual Jihadi6, którego autorem jest Wafaa Bilal, Amerykanin irackiego pochodzenia. Stworzył on grę komputerową, w której obsadził siebie w roli podkładającego bombę terrorysty-samobójcy (stając się „terrorystą w pierwszej osobie”, jak zgrabnie określił to Paolo Pedercini). Gra oparta jest na Quest for Saddam (wydanej w 2003 roku jako kontynuacja Quest for Al Qaeda), w której zadaniem graczy jest zabicie Saddama Husseina, przekształconej w The Night of Bush Capturing internetową wersję hackerską rzekomo stworzoną przez Al-Kaidę, w której gracze usiłują zabić George’a W. Busha. Kolejna modyfikacja autorstwa Bilala, Virtual Jihadi, odrzuca obie wersje, zarówno ekstremalne fantazje islamofobów, jak i islamofilów, umieszczając ciało autora w ramach gry oraz angażując w nią również ciało gracza. Jak wyjaśnił to Bilal: 1 2 3 4 5 6
F. Berardi „Bifo”, Precarious Rhapsody: Semiocapitalism and the Pathologies of the Post -alpha Generation, Minor Compositions, Londyn 2009, s. 55. S. Žižek (2001), Welcome to the Desert of the Real. http://web.mit.edu/cms/reconstructions/interpretations/desertreal.html. R. Grusin (2010), Premediation: Affect and Mediality after 9/11, Palgrave/Macmillan. F. Berardi „Bifo”, Precarious... R. Grusin (2010), Premediation... W. Bilal (2009), The Night of Bush Capturing: A Virtual Jihadi, www.wafaabilal.com/ html/virtualJ.html.
135
Jak lepiej można pojąć czego doświadczają Irakijczycy niż przez osobistą tragedię, obsadzenie siebie w roli terrorysty-samobójcy, któremu zabito brata. Reprezentuję tych wielu Irakijczyków, którzy poddają się działaniu organizacji terrorystycznej, takiej jak Al-Kaida, podporządkowującej sobie ich ojczyznę. Stają po stronie organizacji terrorystycznych na skutek presji, wstępują do nich ze strachu lub z niezgody na to, co Stany Zjednoczone robią w ich ojczyźnie7.
Ilustracja 1: Wafaa Bilal, The Night of Bush Capturing: A Virtual Jihadi (2008). http://wafaabilal.com/html/virtualJ.html
Sprzeczności te zostały ujęte w grze, a zdaniem Briana Holmesa w jej odbiorze ujawniła się niekonsekwencja wolności słowa – czego przykładem było odwołanie prezentacji gry w Rensselaer Polytechnic Institute w USA. Holmes porównał zagrożenie wolności słowa ze strony cenzury z symbolicznym przesłaniem gry – który z tych aktów ma więcej wspólnego z terroryzmem? Od czasu zakończenia Zimnej Wojny nie da się już wskazać jedynego centrum władzy ani konkretnej wobec niej opozycji, stało się więc jasne, że wróg umiejscowił się pośród skomplikowanych sieci, a nie w groźnych karykaturach Saddama czy Busha (Al-Kaida jest dobrym przykładem takiej nienamacalnej sieci). Jednak idea działań politycznych wciąż bazuje na odróżnianiu przyjaciół od wrogów. Sięgając do konceptu wrogości według Carla Schmitta8 oraz jego krytyki liberalizmu w ogóle, problem powstaje, gdy w modelu opartym na konsensusie nie weźmiemy pod uwagę tego, że polityka jest siłą rzeczy antagonistyczna. Wielu komentatorów (np. Chantal Mouffe) konsekwentnie podkreślało nieuniknioność antagonizmu zamiast neoliberalnego konsensusu, który ostatecznie okazuje się nową i subtelną formą sprawowania kontroli. 7
8
B. Holmes, Wafaa Bilal: Speech in a Democracy, http://brianholmes.wordpress. com/2008/03/09/wafaa-bilal-speech-in-a-democracy/Hong Kong Facebook ‘suicide’ group investigated (2009), BBC News, 26.11.2008, http://news.bbc.co.uk/2/hi/8380297. stm. Jokela school shooting, Wikipedia, http://en.wikipedia.org/wiki/Jokela_school_ shooting. C. Schmitt (1927), The Concept of the Political.
136
W tym kontekście wiele uwagi poświęca się wykładom Michela Foucaulta o rządomyślności, wygłaszanym w latach 1982–19839 w celu określenia różnicy pomiędzy wczesnym liberalizmem i współczesnym neoliberalizmem. Foucault wyjaśniał, że w neoliberalizmie zastąpiono regulacyjną funkcję państwa wobec rynku (liberalizm) samym rynkiem (neoliberalizm). Jednostkę ludzką także definiuje się inaczej: jako reagującą na mechanizmy rynkowe, a nie na ograniczenia narzucane przez rząd. Jest to cecha biopolitycznego wymiaru rządów, który Foucault nazwał rządomyślnością10, ponieważ łączy się on z konstrukcją pewnych rodzajów podmiotowości, zgodnie z logiką wolnego rynku. W reżimach rządomyślności kontrola wywiera wpływ bezpośrednio na życie i dlatego skrajnym sposobem odrzucenia jej logiki jest symboliczne zakończenie życia. Niniejszy artykuł rozwija tę ścieżkę rozumowania na podstawie pojęcia wirtualne samobójstwo, przytaczając liczne przykłady symbolicznego zakończenia połowicznie przeżytego życia. Czy jest to jedyna sensowna odpowiedź w sytuacji, gdy zachodnie formy demokracji wyczerpały się na gruncie etycznym, czego dowodem jest łamanie praw człowieka i bezprawne mordowanie w nielegalnych wojnach (co wykazano choćby w Wikileaks)? Jak napisała Jodi Dean w Democracy and Other Neoliberal Fantasies, demokracji nie można już uważać za rozwiązanie problemów politycznych, ale za ich przejaw11. Cytowane w niniejszym artykule przykłady ukazują etyczny protest na różnych poziomach, nie jest jednak pewne, czy udaje się im osiągnąć odwrotną inżynierię rządomyślności (oraz dzięki temu polityczne odrodzenie). Chodzi jednak o to, by zrozumieć, w jaki sposób wirtualne samobójstwo może postawić autonomię ponad samym życiem. W obecnych warunkach jest to być może prorocza droga do zrozumienia możliwości skutecznego działania politycznego. Czy to sprawia, że wirtualne samobójstwo jest tak fascynujące? Wirtualne samobójstwo Temat wirtualnego samobójstwa niewątpliwie stał się popularnym motywem w produkcji kulturalnej. Oprócz doświadczeń wirtualnej śmierci w komercyjnych światach gier, takich jak World of Warcraft12, wiele gier zawiera pierwszoosobową narrację dotyczącą samobójstwa. Przykładem jest Five Minutes to Kill (Yourself), darmowa internetowa gra w formacie flash (dostępna również w wersji na iPhone), w której bohater (Stan, czyli ty) ma pięć minut, żeby się zabić, zamiast wracać do pracy13. W materiale promocyjnym znajduje się taka informacja: „Stan ma pięć minut do kolejnego wykańczającego zebrania w biurze i jego jedyną ucieczką od tego obowiązku jest słodka, chłodna śmierć... Jesteś ostatnią nadzieją Stana”. Zadaniem gracza jest więc wykazać się pomysłowością w odkrywaniu w biurowej przestrzeni sposobów na zrobienie sobie krzywdy i w ten sposób pomóc Stanowi w pogoni za śmiercią. Scenografia gry jest brutalna, ale symbolicznie reprezentuje przemoc kapitalistycznego miejsca pracy. 9 10 11 12 13
M. Foucault, The Government of Self and Others: Lectures at the College de France 1982– 1983, Palgrave Macmillan, Basingstoke 2010. Tamże. J. Dean, Democracy and Other Neoliberal Fantasies: Communicative Capitalism and Left Politics, Duke University Press, Durham 2009. L. Klastrup (2008), What makes WoW a World? A Note on Death and Dying; Digital Culture, Play, and Identity: A World of Warcraft Reader, red. J. Walker, H. Corneliussen, MIT Press, Massachusetts. Five Minutes to Kill (Yourself), 2009. Gra opracowana przez Ham in the Fridge. Zob. też: www.youtube.com/watch?v=BF55DEcgtq8&feature=related.
137
Ilustracja 2: Five Minutes to Kill (Yourself), gra opracowana przez Ham in the Fridge (2009). www.haminthefridge.com/five-minutes-to-kill-yourself-familyreunion/
Pozostając przy tematach biurowych: Suicide Letter Wizard for Microsoft Word Olgi Goriunovej14 to parodia funkcji programu Microsoft Word, która uprzedza intencje użytkownika, proponując pomoc w postaci utrzymanego w stylu disnejowskim asystenta biurowego. Ów asystent (lub czarodziej) to zaprogramowana funkcja, która oznajmia: „Wygląda na to, że piszesz list” i proponuje różne stylistyczne opcje zredagowania pożegnalnej samobójczej notki. Artykuł pod tym samym tytułem: It Looks Like You’re Writing a Letter, którego autorem jest Matthew Fuller (pierwsza wersja powstała jako opis do instalacji A Song for Occupations prezentowanej w galerii Lux w Londynie w 2000 roku)15, pokazuje, jak użytkownik oprogramowania sam również staje się częścią systemu. Generalnie można porównać to do procesu, w którym „pracownik znika, gdy cały jego potencjał wprzęga się bezpośrednio w aparat pracy”16. W społecznej fabryce skradziona wartość to nie tylko siła robocza, ale również podmiotowość. W tym znaczeniu narzucona praca jest już wyrokiem śmierci, dlatego jej odmowa może okazać się ostatecznym aktem sprzeciwu. W tej sytuacji, oraz biorąc pod uwagę siłę oddziaływania Sieci, twórcy taktyk opozycyjnych zazwyczaj doradzają wykorzystanie słabych stron Sieci na podstawie różnic mocy, które istnieją w Systemie. Tego typu taktyki bazują na metodach związanych z Siecią, informacją i teorią mediów, jednakże efekty osiągane przez aktywistów mediów taktycznych są paradoksalne, jak twierdzi Geert Lovink: Pomimo że ich działania często są destrukcyjne, media taktyczne potwierdzają tymczasowość kapitału w postfordyzmie, jego krótkotrwałość [...] Dlatego media taktyczne traktowane są ze swego rodzaju łagodną tolerancją [...] Ich ideał to bycie czymś niewiele więcej niż krótkotrwałym zakłóceniem, chwilowym hałasem, krótką ingerencją. Media taktyczne pozwalają się wykorzystywać w taki sam sposób jak „modderzy” w przemyśle gier komputerowych: jedni i drudzy dzielą się za darmo swoją wiedzą o lukach w systemie. Wskazują na problem i uciekają. Kapitał jest zadowolony i dziękuje ekipie mediów taktycznych lub nerdowi-modderowi za naprawę usterki17. 14 15 16 17
O. Goriunova (2002), Suicide Letter Wizard for Microsoft Word, Data eXchange Laboratory, www.runme.org/project/+slwiz/. M. Fuller, It Looks Like You’re Writing a Letter. Behind the Blip: Essays on the Culture of Software, Autonomedia, Nowy Jork 2003, s. 137–165. Tamże, s. 139. R. Raley, Tactical Media, Electronic Mediations, t. 28, University of Minnesota Press, Minneapolis–Londyn 2009, s. 28.
138
Jeśli efektywna taktyka przeniosła się do sfery sprawowania biowładzy (jak sugeruje ten wywód), czy taktyki aktywistów biopolitycznych są także na to skazane. Czy aktywizm wyczerpał swoje możliwości, gdyż powtarza uprzednie nieudane strategie łączenia sztuki i komunikatywnego działania? Pisał o tym Berardi: Czyż nie powinniśmy zaprzestać wielokrotnych, nieudanych działań na rzecz uwolnienia ludzkiej energii spod władzy kapitału? Czy droga w kierunku niezależności społeczeństwa od ekonomicznej i militarnej mobilizacji nie wiedzie jedynie przez wycofanie się w bezczynność, ciszę i bierny sabotaż?18.
Podejmując rozważania nad tymi zagadnieniami, należy zdać sobie sprawę, że kapitał może odtwarzać się w pewnym stopniu dzięki własnej krytyce. A zatem, paradoksalnie, kapitał nie chce zniszczyć krytyki, lecz ujarzmić ją przez poddanie jej sobie i tym samym rozciągnąć swe wpływy na wszystkie sfery życia. Autonomiści określają ten aspekt restrukturyzacji jako cykle walki, uznając fakt, że opór także musi podlegać równoległym transformacjom. Wskazywał na to Mario Tronti w eseju z 1965 roku, The Strategy of Refusal, logika kapitału „usiłuje wykorzystać antagonistyczną chęć walki u pracownika jako czynnik swego własnego rozwoju”19. Kluczową kwestią jest to, że kapitał nie rozwija się dzięki technologicznym innowacjom, lecz dzięki kreatywnej sile roboczej. Dlatego wycofanie się siły roboczej pozostaje skuteczną techniką. W przeciwieństwie do kapitału, który potrzebuje siły roboczej, siła robocza nie wymaga kapitału. Co więcej, siła robocza jest potencjalnie „autonomiczna” i ma możliwość wykorzystania swej kreatywnej energii w inny sposób. Jeśli obecny reżim neoliberalny w znacznym stopniu bazuje na otwartej wymianie społecznej, to ci, którzy go stworzyli, w sposób naturalny mogą też go zlikwidować, przynajmniej według dialektycznej logiki. Odwrócenie drogi rozwoju władzy jest zapewne jedynym sposobem, by mogła dokonać się zmiana, na początku przez etyczny sprzeciw oraz stworzenie form protestu opartych na strukturze rządomyślności. Zadaniem politycznym staje się inżynieria odwrotna, czyli negowanie istotnych elementów, aby osiągnąć odmienne cele. Opierając się na pojęciu cykl walki, spora część aktywności mediów próbuje dostosować się do bieżących warunków oraz reagować na to, jak technologie komunikacji przekształcają proces polityczny i sposoby wyrażania sprzeciwu. W przypadku mediów społecznościowych można z łatwością dostrzec to zjawisko w nowych strategiach sprzeciwu (czasem nazywanego exodusem – aktem oporu przeciwko ustanowionej władzy, nie w formie protestu, lecz wycofania się). Dobrym przykładem jest Suicide Machine 2.0, projekt Moddr, który odzwierciedla modę na usuwanie znajomych na głównych portalach społecznościowych (tutaj: Facebook, MySpace, twitter i LinkedIn)20. Na stronie można przeczytać: „Uwolnij swoich internetowych przyjaciół przy pomocy samobójstwa Web2.0! To urządzenie umożliwi ci usunięcie wszystkich twoich marnujących energię profili na portalach społecznościowych, zabicie twych fałszywych wirtualnych przyjaciół i całkowite zlikwidowanie twojej tożsamości Web2.0”. Program loguje się na koncie użytkownika, zastępuje zdjęcie profilowe różowym stryczkiem, zmienia hasło (by użytkownika nie kusiło przywrócenie konta), po czym przystępuje do usuwania wszystkich znajomych, jednego po drugim. 18 19 20
F. Berardi „Bifo”, Precarious..., s. 126. M. Tronti, The Strategy of Refusal [w:] Autonomia: Post-political Politics. Semiotext(e), t., nr 3, Semiotext(e), Nowy Jork 1980, s. 29. Moddr (D. Vasiliev, G. Savicic) (2009), Web 2.0 Suicide Machine, http://suicidemachine.org.
139
Ilustracja 3: Moddr, Web 2.0 Suicide Machine (2010), http://suicidemachine.org/
Nawiązując do sporu o wspomagane samobójstwo, Moddr oświadczyło, że broni prawa do popełnienia samobójstwa Web 2.0. Jednakże Facebook.com nie zgadza się z tym, twierdząc, że gromadzenie przez program danych logowania i informacji ze stron Facebooka narusza regulamin korzystania z portalu21. Obiekcje te są jednak wyrazem obłudy, ponieważ obecnie wiadomo już, że Facebook przechowuje informacje osobiste użytkowników dla swoich niejasnych celów, nawet po usunięciu konta (a 500 milionów znajomych to źródło wielkiej ilości danych). W szerszym kontekście Facebook stosuje się do logiki rządomyślności, zachęcając do swobodnej wymiany danych, aby można je było potem wykorzystać do kontrolowania przepływu osób, towarów i produkcji. W praktyce wydaje się, że istnieje pragmatyczny kompromis pomiędzy zasadami etycznymi a wartością użytkową, w ramach którego użytkownicy zrzekają się praw na rzecz prywatnych właścicieli portalu w zamian za publiczną usługę komunikacyjną, często z pełną świadomością wiążących się z tym ustępstw. Jednak praktyka „usuwania z grona znajomych” zyskuje coraz większą popularność w kulturze sieciowej jako oznaka świadomości kwestii związanych z prywatnością, a niekiedy jako odrzucenie ukrytej logiki wolnego rynku. Jeśli zaś chodzi o „samobójstwo na Facebooku”, coraz więcej osób usuwa swoje konta, pojawiło się także zjawisko facebookowych grup samobójczych, np. Facebook Mass Suicide Club. Z jednej strony istnieją nieszkodliwe i stosunkowo błahe projekty artystyczne, jak Friendster Suicide (2005), w którym autor Cory Arcangel ogłosił swój zamiar usunięcia konta publicznie i jako wydarzenie artystyczne. Z drugiej strony „grupa samobójcza” z Hong Kongu na Facebooku dyskutowała nad sposobami popełnienia samobójstwa i namawiała członków do pozbawienia się życia w tym samym dniu22. To, co zaczęło się zapewne od żartu czy mizantropii, kończy się faktycznymi próbami samobójczymi. Facebook stał się ulubionym celem z wymienionych wyżej powodów, a przywiązywanie szczególnej wagi do coraz liczniejszej sieci „znajomych” ukazuje, jak relacje społeczne rozwijają się w restrykcyjnej formie, która przesłania wymiar polityczny, co przywołuje wspomnianą wcześniej koncepcję wrogości według Schmitta. Zmitologizowana opowieść o rozwoju Facebooka, The Social Network23, 21 22 23
R. Needleman (2010), Facebook cuts off Suicide Machine access, http://news.cnet. com/8301-19882_3-10424683-250.html. C. Arcangel (2005), Friendster suicide, www.coryarcangel.com/2005/12/friendstersuicide-live-in-person-dec-2005/. The Social Network (2010), www.thesocialnetwork-movie.com.
140
najwyraźniej się z tym zgadza, podając w materiałach promocyjnych filmu: „Nie zdobędziesz 500 milionów przyjaciół, nie robiąc sobie kilku wrogów”. Kolejnym przykładem jest hackerska wersja Facebooka stworzona przez Les Liens Invisibles, a zatytułowana Seppukoo24. Jest to portal dla użytkowników, którzy chcą popełnić wirtualne samobójstwo, rytualnie pozbawiając się swej internetowej tożsamości. Tytuł projektu wyraźnie nawiązuje do japońskiego rytualnego samobójstwa Seppuku (dosłownie – rozcięcie brzucha), które kojarzy się z upartą odmową oddania się w ręce wroga i postawieniem wolności ponad własnym życiem. W takich sytuacjach samobójstwo wynika z samurajskiego kodeksu honorowego (z szacunku dla cesarza lub może z braku szacunku dla cesarstwa). Oprócz tego projekt czerpie inspiracje z Seppuku!, rytualnego samobójstwa popełnionego przez niektórych członków Luther Blissett Project w 1999 roku, by ogłosić koniec swego projektu wielu tożsamości (oraz śmierć net.art jako tymczasowej strefy autonomicznej)25.
Ilustracja 4: Let’s commit Facebook suicide – just for fun, zrzut ekranu
Ważne jest to, że działania te ukazują przemianę od aktywności indywidualnej do zbiorowej. Les Liens Invisibles (Guy McMusker) poniżej objaśnił motywację leżącą u podstaw projektu. Określając samobójstwo jako „wirusowe”, wyobraziliśmy je sobie jako rodzaj mimowolnego strajku. Masowe usuwanie kont mogłoby symbolizować wyrzeczenie się tej super-waloryzacji wirtualnej tożsamości i w ten sposób zainicjować to, co grupa Tiqqun nazywa ludzkim strajkiem. Każda brakująca osoba to również brak kontaktów tej osoby. Projekt Seppukoo powstał w celu przeniesienia działań indywidualnych na płaszczyznę zbiorową dzięki mechanizmowi zaproszeń wirusowych26.
Podobnie jak w przypadku Suicide Machine Facebook szybko zakwestionował działania Les Liens Invisibles i wystosował list wzywający do ich zaprzestania, twierdząc, że projekt narusza reguły, gdyż korzysta z informacji dostarczonych przez osoby trzecie. Dział „O Seppukoo” zwięźle objaśnia podwójną moralność Facebooka: „Samobójstwo jest wolnym wyborem i rodzajem asertywności. Niestety, Facebook nie zapewnia swoim użytkownikom takiej możliwości, a twoje konto zostanie jedynie dezaktywowane”.
24 25 26
Les Liens Invisibles (2009), Seppukoo, www.seppukoo.com. Luther Blissett Project (1999), www.lutherblissett.net/archive/452_en.html. L. Borrelli, The Suicide Irony: Seppukoo and Web 2.0 Suicide Machine [w:] Digimag 52, marzec 2010, www.digicult.it/digimag/article.asp?id=1733.
141
Ilustracja 5: Les Liens Invisibles, Seppukoo (2010), www.seppukoo.com
Jak twierdziła Loretta Borrelli w swoim wywiadzie z twórcami Web 2.0 Suicide Machine i Seppukoo, samobójstwo stało się „aktem niewątpliwej odwagi politycznej”27. Szczegóły takich projektów pokazują, jak kontrola nad relacjami w Sieci dokonuje się w coraz większym stopniu przez dynamiczne interakcje technologii i biologii (zarządzanie życiem i śmiercią w rzeczywistości mieszanej). Znaczenie objaśnia się w kategoriach konstruowania pewnych rodzajów podmiotowości, z wykorzystaniem technologii sieciowych. Technologie te umożliwiają nawiązywanie kontaktów społecznych i współuczestnictwo, które leży u podstaw ich ideologicznego oddziaływania: Komunikatywny kapitalizm przejmuje nasze polityczne działania, przekształcając je we wkład do swego kręgu emocji i rozrywki – „czujemy się polityczni, zaangażowani, tak jakby nasz wkład miał faktycznie jakieś znaczenie”28.
Na poparcie powyższego cytatu można przytoczyć niedawny projekt internetowy Evy i Franco Mattes29. W No Fun (2010) jedno z artystów udaje samobójcę w publicznym chatroomie o nazwie Chatroulette, gdzie można spotkać losowo wybrane osoby z całego świata i porozmawiać z nimi na żywo za pośrednictwem kamerek internetowych. Ludzie obserwowali w czasie rzeczywistym, jak artysta pozornie wisiał całymi godzinami na sznurze. Reakcje szokują brakiem szczerego zainteresowania; niektórzy śmiali się nerwowo, inni robili zdjęcia telefonami komórkowymi, ale – co najbardziej znaczące – ludzie nie podejmowali żadnych działań. Projekt odzwierciedla zjawisko, które określiliśmy już wcześniej mianem zbiorowej halucynacji lub pustego spektaklu i które przywodzi na myśl emocjonalne oddziaływanie obrazów z Abu Ghraib. Rejestracja wideo eksperymentu została zakazana na YouTube, dzięki czemu zyskała jeszcze większe uznanie w swej farsowości (na stronie artystów zamieszczono nawet logo „Zakazane na YouTube” jak trofeum). W dużym stopniu, zastosowanie z premedytacją technologii jest znacznie bardziej szokujące niż prezentowana nieprawdziwa treść.
27 28 29
Tamże. J. Dean, Democracy and Other..., s. 49. E. Mattes, Franco a.k.a. 0100101110101101.ORG. (2010) No Fun, www.0100101110101101. org/home/nofun/index.html.
142
Ilustracja 6: Eva & Franco Mattes, No Fun, (2010), http://0100101110101101.org/ home/nofun/
Zgodnie z tą linią rozumowania, uczestnictwo w technologiach komunikacyjnych pozostaje w dużym stopniu fantazją, podobnie jak bardziej ogólne zbiorowe fantazje na temat wolnego rynku i fałszywej globalnej jedności (czyli globalizacji). Wszechobecność mediów społecznościowych pokazuje, jak relacje społeczne stają się interpasywne. Jednostki wyobrażają sobie, że odgrywają aktywną rolę, jednak w rzeczywistości są podporządkowane. Ponadto etykę współuczestnictwa w relacjach społecznych w Sieci interpretuje się jako wyraz nowych form kontroli nad podmiotowością. Miejsce dawnych form rządów, które ograniczały ludzkie działania, zajęła logika rządomyślności, otwierając przestrzenie wymiany społecznej, a tym samym generując dane, które można wykorzystać, aby bardziej skutecznie kontrolować ludzkie działania i zapobiegać wszelkim zagrożeniom wydajności rynków. Ludzi zachęca się do działania, ale tylko w kompromisowych formach. Wirtualne samobójstwo oznacza upartą „odmowę” działania w nieznośnych warunkach poddaństwa, takich jak omówione, a zatem symbolizuje afirmację możliwości autonomicznego działania. Definitywne działanie Gdy Berardi oświadczył, że samobójstwo to definitywny akt polityczny, odwołał się do nadużyć działania. Podał przykład młodego Fina Pekka-Eric Auvinena, który w 2007 roku wkroczył do liceum Jokela i zastrzelił osiem osób, a potem siebie. W filmikach na YouTube (następnie zakazanych), w których zapowiadał masakrę, Auvinen określał siebie jako antyludzkiego humanistę i nosił koszulkę z napisem LUDZKOŚĆ JEST PRZEREKLAMOWANA.
Ilustracja 7: Zrzut ekranu z filmiku Auvinena na YouTube (obecnie ocenzurowanego), http://en.wikipedia.org/wiki/Jokela_school_shooting
143
Na czym więc polega pozytywna działalność? Mówił o tym Paolo Virno, odnosząc się do zdolności politycznego działania, zauważając, że ludzkie zwierzę ze swej natury może modyfikować swe formy życia30. Użył zwrotu „innowacyjne działanie”, które jest źródłem przeciwstawnych czynników odzwierciedlających kondycję ludzką, jej kreatywną energię oraz tłumienie. Twierdzenie to, leżące u podstaw działań politycznych i uwidocznione w tytule książki Virno, Multitude: Between Innovation and Negation, opiera się na zdolności tłumu do kreowania strategii oscylujących między innowacją a negacją, „umieszczania nie przed nieludzki”31. W nawiązaniu do dialektyki negatywnej Virno dążył do zrozumienia negacji, przedstawiając krytykę kapitalistycznej produkcji jako stanu negatywnego, który wymaga dalszej negacji. Istotność „negacji negacji”, jak Žižek wyjaśnił w innym miejscu, polega na odróżnieniu „realnej” śmierci systemu od jego śmierci symbolicznej: „system musi umrzeć dwukrotnie” (lub w wypadku „śmierci autora”, ta przenośnia również musi umrzeć)32. Niektórym z przykładów zaprezentowanych w niniejszym artykule być może brakuje tej dalszej negacji, ponieważ odnoszą się one bardziej do ironii niż do zanegowania negacji: do protestu bardziej niż do odmowy. Zgodnie z logiką heglowską negowanie negacji odgrywa ważną rolę w przemianie od „wewnątrz siebie” do „dla siebie” (samoświadomość klasowa warunków wyzysku). Jednak, jak zapisał Berardi w Precarious Rhapsody, ważne jest zrozumienie, że negacja oferuje stopniową innowację, a nie nowe całościowe formy33. W swych zastrzeżeniach odniósł się do znanych problemów związanych z heglowskim podmiotem historycznym, podkreślając procesy „upodmiotowienia” (zamiast podmiotu, zapożyczając termin od Félixa Guattari). Problem całościowości ujawnia się także w grupach przyjaciół na portalach społecznościowych. Każde działanie, nawet przyjaźń, nie jest już sprawą indywidualnych osób, ale jest rozproszone pośród wzajemnych interakcji jednostek ludzkich i innych, działających dynamicznie. Pojęcie innowacja w rozumieniu Berardiego pojawia się również u Virno, w zupełnie innym znaczeniu niż to, które jest związane z instrumentalizmem branży kreatywnej. Berardi przywołuje „dynamiczną rekombinację” jako metodę refleksji nad możliwościami i radykalnymi strategiami, takimi jak rezygnacja z wykonywania pracy, tworzenie tymczasowych sfer autonomicznych, inicjatywy z zakresu darmowego oprogramowania i tak dalej – do listy tej można też dodać wirtualne samobójstwo. Zdaniem Berardiego, główna walka toczy się pomiędzy maszynami wyzwalającymi pragnienia a mechanizmami kontroli nad wyobraźnią. Psychopatologia, o której mówił, odnosi się do faktu zawłaszczenia systemów technicznych i działalności twórczej przez „semiokapitał” (wyjaśnienie: semiokapitalizm to nazwa, którą Berardi nadał obecnemu systemowi, gdzie informacyjny kapitalizm zawarł w sobie elementy lingwistyczne). Berardi ubolewał, że „słów uczymy się od maszyn a nie od naszych matek” (cytując Rose Golden z 1975), w warunkach, gdzie nauka języka i emocji zostały oddzielone od siebie34. Nawiązał tu do prac Christiana Marazzi35, poświęconych związkom pomiędzy ekonomią, językiem 30 31 32 33 34 35
P. Virno, Multitude: Between Innovation and Negation, Semiotext(e) Foreign Agents, Los Angeles 2008. Tamże, s. 190. S. Žižek, The Ticklish Subject: The Absent Centre of Political Ontology, Verso, Londyn 1999, s. 72. http://web.mit.edu/cms/reconstructions/interpretations/desertreal.html. F. Berardi „Bifo”, Precarious..., s. 72. F. Berardi „Bifo”, Precarious..., s. 9. Ch. Marazzi, Capital and Language: From the New Economy to the War Economy, Semiotext(e), Los Angeles 2008.
144
i emocjami; sytuacji, w której ludzie stali się wyraźnie dyslektyczni i „niezdolni do skupienia uwagi na jednym obiekcie przez dłuższy czas”36. Dla psychiki ma to tragiczne skutki, ponieważ język działa na podstawie konstrukcji podmiotowości. W związku z tym, zdaniem Berardiego, „Jeśli chcemy zrozumieć współczesną gospodarkę, musimy zająć się psychopatologią związków”37. Uważał obecną sytuację za katastrofę współczesnego humanizmu, w którym zbyt mało uwagi poświęca się miłości, wrażliwości, współczuciu. Zdaniem Berardiego, ratunkiem może jedynie być oddzielenie pracy intelektualnej od panowania ekonomii. W rzeczywistości odmowa pracy jest ściśle związana z działalnością intelektualną, która uosabia pewien rodzaj wolności, w odróżnieniu od takiej pracy, która wiąże się z brakiem wolności i kojarzy się z profitami i władzą (objaśnił to przez charakterystykę Billa Gatesa „handlarza, który obrabował inteligencję zbiorową” i George’a Busha „wojownika-idioty”, wspólnie zdławili oni inteligencję)38. Odwołał się do siły powszechnego intelektu i społecznej funkcji pracy intelektualnej, już nieodseparowanej od języka, którą można prześledzić pod względem historycznym przez heglowską transformację od „wewnątrz siebie” do „dla siebie”, do „umysłowości masowej”. Co jednak z wirtualnym samobójstwem? Co mówi nam ono o ekonomii, kondycji ludzkiej i o naszej wrażliwości oraz współczuciu? Warto pamiętać, że smutek jest wykorzystywany w celach zwiększania konsumpcji (tzw. terapia zakupowa), a umiejętnie sterowana depresja leży w interesie chociażby przemysłu farmaceutycznego (co ciekawe, Auvinen przyjmował lek antydepresyjny, który podobno wywołuje tendencje samobójcze jako efekt uboczny). Kwestia farmakologii jest istotna, gdyż poza standardowymi lekami można wyobrazić sobie inne formy terapii, chociażby dobroczynne właściwości pracy intelektualnej. Berardi przypominał, że: Władcy tego świata nie chcą, aby ludzkość była szczęśliwa, ponieważ szczęśliwa ludzkość nie pozwoliłaby uwikłać się w zwiększanie wydajności [...] Równocześnie szukają skutecznych technik złagodzenia cierpienia na tyle, by opóźnić lub zapobiec eksplozji samobójstw oraz zachęcić do konsumowania39.
Pod tym względem samobójstwo wirtualne można traktować jako skuteczny protest oraz afirmację wyższości twórczej autonomii nad pracą intelektualną i życiem samym w sobie. Jest ono radykalnym działaniem wobec życia przeżywanego połowicznie, w strachu. Podziękowania Artykuł powstał dzięki wsparciu Digital Urban Living Research Center, współfinansowanym przez Danish Council for Strategic Research, nr grantu: 212807-0011.
36 37 38 39
F. Berardi „Bifo”, Precarious..., s. 40–41. Tamże, s. 37. Tamże, s. 60. Tamże, s. 43.
145
Teorie mindware
Wokół interfejsów
Sztuka mediów
Ku kognitywnej przestrzeni publicznej – strategie otwierania Anna Nacher
147
148
Nie ulega wątpliwości, że zmienia się sposób posługiwania się miastem – kolejne etapy innowacji w zakresie technologii medialnych zawsze miały zresztą związek z kształtowaniem nie tylko miejskiej kultury, ale także organizacji przestrzeni. Poczynając od miasta XIX-wiecznego, które odkryło dla siebie miejskie spektakle ruchu, światła i gry odbić w szklanych powierzchniach1, związki miasta z kulturą artystyczną i mediami stawały się coraz bardziej złożonym układem wzajemnych zależności, bo – jak napisała Ewa Rewers – „reprezentacje służą ekspozycji miasta, lecz jej nie wyczerpują”2. Jedną z intrygujących form takiego układu przybliżył w odniesieniu do Times Square Marshall Berman, pisząc o wyjątkowości świetlnego spektaklu jednego z najbardziej niezwykłych i jednocześnie najsilniej zmediatyzowanych miejskich fragmentów Ameryki: Prosperita wielu amerykańskich miast, zwłaszcza regionu tzw. Sun Belt3, ma związek z autostradami i kulturą samochodu, dzięki czemu powstała przestrzeń wypełniona znakami tak dużymi i tak rzucającymi się w oczy, jak te na Times Square. Tego typu przestrzeń ma tam jednak charakter prostej alei [strips – przyp. A.N.] (Las Vegas, Los Angeles, Mexico City), po której ludzie w samochodach jadą przed siebie. Znaki są umieszczone zgodnie z logiką linii prostych, przeznaczone do oglądania przez przejeżdżających lub przechodniów w tempie jednego lub góra dwóch naraz. Zastosowanie znaków na Times Square jest bardziej skomplikowane. Tutaj ludzie przemieszczają się na własnych nogach, otoczeni tłumem zmierzającym w stu kierunkach, powstrzymywani od podążania wzdłuż linii prostych nawet, jeśli tego chcą. Znaki nacierają na nas ze wszystkich stron; nadają kolory ludziom obok nas i nam samym; wszyscy zanurzamy się w ruchu świateł i cieni4.
A zatem związki przestrzeni miejskiej z mediami są czymś znacznie bardziej złożonym, niż wskazywałaby na to logika reprezentacji, zwłaszcza tej opartej głównie (czy wręcz wyłącznie) na reżimach wzrokocentrycznych. W dobie technologii zsieciowanych, których podstawę stanowią rozmaite formy łączności bezprzewodowej5 oraz rozproszone media mobilne6, coraz istotniejsze stają się pytania o praktyki medialne w przestrzeniach miejskich, o sposoby użytkowania miasta przez aktywność użytkowników mediów, nie zaś tylko o tryby i formy jego reprezentacji. Organizmy miejskie stają się bowiem w istotniejszym zakresie przestrzeniami hybrydowymi7, gdzie przełączenia między domeną obrazów generowanych komputerowo oraz domeną ulicy rozgrywają się błyskawicznie za sprawą popularnych aplikacji AR [rzeczywistości rozszerzonej – A.N.] lub usług mapowych, 1 2 3 4 5 6 7
Por. A. Nacher, Pasaże ekstazy, „Przegląd Kulturoznawczy” 2007, nr 2. E. Rewers, Wprowadzenie [w:] Miasto w sztuce – sztuka miasta, red. E. Rewers, Kraków 2010, s. 7. Mianem tym określa się południowe i południowo-zachodnie stany USA, przylegające do granicy z Meksykiem [przyp. – A.N.]. M. Berman, On the Town. One Hundred Years of Spectacle in Times Square, Nowy Jork 2006, s. 6. Por. A. Nacher, Geomedia jako miejsce budowy. Poza logikę spektaklu, „Kultura Popularna” 2010, nr 3–4 (29–30). Por. A. Maj, Media w podróży, Katowice 2010. A. de Souza e Silva, Mobilne technologie jako interfejs przestrzeni hybrydowej, przeł. A. Nacher [w:] Miasto w sztuce – sztuka miasta, red. E. Rewers, Kraków 2010, s. 7.; zbliżonym terminem jest pojęcie przestrzeń augmentowana, zaproponowana przez Lva Manovicha; L. Manovich, Poetyka powiększonej przestrzeni, przeł. A. Nacher [w:] Miasto w sztuce – sztuka miasta, red. E. Rewers, Kraków 2010, s. 7.
149
dostępnych często jako nowa formuła informacji turystycznej8. Należy dodać do tego falę zainteresowania aplikacjami geolokalizacyjnymi, które często śledzą nie tylko ruch ich użytkowników w przestrzeni, ale także dają obraz ich aktywności i wyborów: tak jest w przypadku popularnych mobilnych serwisów Gowalla i Foursquare oraz wprowadzonej w 2011 roku usługi tagowania miejsc na Facebooku, która zastąpiła funkcjonującą przez rok aplikację Places, wzorowaną na wspomnianych usługach konkurencji9. Wszystkie działają na podobnych zasadach: lokalizują miejsce, które odwiedzają użytkownicy w serwisie mapowym (najczęściej w Google Maps), umożliwiając logowanie się (check-in), tworzą zatem coś pośredniego między programem lojalnościowym (często można uzyskać w ten sposób atrakcyjne rabaty lub promocje w odwiedzanej kawiarni, sklepie czy restauracji) a grą miejską. Otrzymuje się w ten sposób wizję miasta, w którym taktyki użytkowników stają się dyskursywnie widoczne i łatwe do prześledzenia – inaczej niż opisywał to Michel de Certeau10. Według francuskiego badacza kultury codzienności i przestrzeni miejskiej, „zapisy tras”11, rozumiane jako linie wykreślone na mapie, odzwierciedlające przemierzone wędrówki, oznaczają wyłącznie „nieobecność tego, co przeszło”12. W tym sensie także ma się do czynienia z wykroczeniem poza porządek reprezentacji, w którym znak (reprezentacja) zawsze jest połączany swego rodzaju związkiem indeksalnym z tym, do czego odsyła, co było wobec znaku zawsze uprzednie. W przypadku aplikacji geolokalizacyjnej zintegrowanej z Facebookiem ma się jednak do czynienia z innymi trybami chronometrii: w czasie rzeczywistym można podzielić się informacją „o tym, gdzie byliśmy, o tym, gdzie jesteśmy, i o tym, gdzie będziemy”13. Pewne aspekty analizy de Certeau wydają się jednak aktualne, zwłaszcza tendencja, którą badacz określił jako „(zachłanną) zdolność systemu geograficznego do przekształcania działania w czytelność”14. Jak zatem widać, jest tu mowa o mieście dzielącym pewne aspekty nowoczesnego spektaklu i jednocześnie nacechowanym w stosunku doń istotnymi zmianami. Innowacje te są obecne zarówno na gruncie polityk reprezentacji, które wychodzą poza krystaliczne cięcie oddzielające znak od przedmiotu referencji, jak i w obszarze praktyk użytkowników, zwłaszcza tam, gdzie tradycyjnie były one podporządkowane designerom, urbanistom i architektom miejskich przestrzeni. Zwłaszcza ta ostatnia konstatacja domaga się dokładniejszego wyjaśnienia – nie chodzi tutaj bowiem o opis w perspektywie zmitologizowanej już nieco kultury partycypacji, czyli aktywności użytkowników Internetu drugiej generacji, często prezentowanej w nieco zbyt romantycznym ujęciu. Będzie to raczej próba uchwycenia możliwości otwarcia przestrzeni publicznej rozumianej jako kognitywna przestrzeń publiczna (czyli rozgrywająca się w sferze poznawczej i afektywnej). Nader często przybiera ona jednak zupełnie materialne formy ucieleśnienia, zgodnie z logiką nowomedialnych przestrzeni hybrydowych. Kluczowe znaczenie mają tutaj praktyki związane ze wspólnotowym zarządzeniem informacją geograficzną (czyli z mapowaniem), gdzie wspólnota jest rozumiana w sposób bardzo szeroki – 8 9 10 11 12 13 14
W. Marzec, A. Zysiak, Powiedz mi, gdzie jestem. Media geolokalizacyjne jako surogat mapowania poznawczego, „Kultura Popularna” 2010, nr 3–4 (29–30). M.G. Siegler, One Year Later, Facebook Killing Off Places... To Put Location Everywhere, http://techcrunch.com/2011/08/23/facebook-location-tagging/ (dostęp: 20.09.2011 r.). M. de Certeau, Wynaleźć codzienność. Sztuki działania, przeł. K. Thiel-Jańczuk, Kraków 2008. Tamże, s. 98. Tamże. M.G. Siegler, One... M. de Certeau, Wynaleźć..., s. 98.
150
jako wspólnota ludzi i rzeczy. Szczególnie ten ostatni aspekt wydaje się się ważny w sytuacji, w której nieuchwytnie, acz namacalnie wkracza w życie miast tzw. Internet ludzi i rzeczy, wraz z rozwiązaniami technologicznymi opartymi na interfejsach o charakterze niewizualnym. Choć kultura codzienna jest nasycona gadżetami komunikującymi się ze sobą w dostępnym wszystkim spektrum elektromagnetycznym, to rzadko pojawiają się propozycje uzupełnienia koncepcji przestrzeni publicznej o terytorium, z którego korzystają domowe urządzenia. Wspólnota mapowania W centrum wielu działań z mediami miejskimi znajduje się dzisiaj mapowanie, praktyka sytuująca się na skrzyżowaniu ustalonych w kulturze zachodniej od wczesnej nowożytności sposobów reprezentacji (siatka Mercatora), wraz z jej specyfiką obrazowania (w którą wpisuje się anamorfoza) oraz współczesnych możliwości, jakie kryje cyberkartografia. Ostatnie oznaczają często zerwanie z logiką reprezentacji na rzecz połączenia z symulacją i obrazowaniem opartym na wizualizacji danych. Sytuacja taka inspiruje coraz częściej do zadawania na nowo podstawowych pytań o status mapy: „Czy mapa [...] nie stanowi więc reprezentacji świata, lecz jest inskrypcją, która działa (a czasami nie działa) w świecie? Czy mapy i mapowanie poprzedzają terytorium, które »reprezentują«, czy też może powinniśmy traktować je jako wytwarzające terytorium?”15. Pytania te nie są zupełnie nowe w świetle ugruntowanej krytyki pozytywistycznego rozumienia roli map, artykułowanej przynajmniej od lat 60. XX w. przez badaczy tworzących zręby geografii humanistycznej, ale współcześnie stają się znacznie bardziej dojmujące. Dzieje się tak za sprawą zmiany funkcji i formy zarówno samej mapy, jak i roli jej użytkowników. W cyberkartografii ma się bowiem do czynienia z mapą jako platformą nawigacyjną oraz z użytkownikami, którzy takową mapę w różnym zakresie i w różny sposób współtworzą. Proces można opisać następująco: „Powiedzmy, że logujemy się przez dany interfejs do jakiejś geograficznej bazy danych, ekran naszego komputera (stacjonarnego lub przenośnego, to już nie ma znaczenia) pełni funkcję pulpitu (dashboard) pozwalającego nawigować pośród całkowicie heterogenicznych zestawów danych, które są odświeżane w czasie rzeczywistym i umiejscawiane w zależności od naszych konkretnych poleceń [...]”16. Są to codzienne procedury wykonywane wręcz mimowolnie i niezauważalnie, opiera się na nich niemal każda aplikacja geolokalizacyjna. W tym kontekście odpowiedź na pytanie o uprzedniość terytorium wobec mapy oraz o jej performatywność wydaje się dosyć oczywista. To jest także powód, dla którego niezbędne wydaje się wyjście poza dyskursy reprezentacjonistyczne, które „zamrażają” mapę jako wynik i obiekt odwzorowania. Mapowanie w tym ujęciu oznaczałoby działanie o charakterze par excellence wspólnotowym, społecznym i performatywnym, czyli swoiste odejście od mapy jako obrazu/produktu/obiektu na rzecz mapowania jako procesu. Jak bowiem pokazują autorzy wspomnianego artykułu, sporządzanie mapy w gruncie rzeczy zawsze zawierało w sobie poszczególne ogniwa operacji. Dzisiaj stały się one dostępne doświadczeniu użytkowników za sprawą interfejsu zsieciowanych mediów cyfrowych. Chodzi tutaj o kolejne fazy sporządzania mapy: zdobywanie danych, zarządzanie nimi, przetwarzanie ich, sposób prezentacji wyników (wydruk), umieszczanie na mapie znaków wzmacniających użyteczność mapy oraz nawigowanie17. W efekcie ma się do czynienia właśnie z nawigacyjną, nie zaś mimetyczną 15 16 17
V. November, E. Camacho-Hübner, B. Latour, Wkraczając na terytorium ryzyka. Przestrzeń w erze nawigacji cyfrowej, przeł. K. Abriszewski, „Kultura popularna” 2010, nr 3-4 (29-30). Tamże, s. 105. Tamże.
151
interpretacją mapy, która zmienia ją w „ścieżkę wiodącą od jednego oznaczenia drogowego do następnego oraz ustanawia rozmaite korespondencje w obrębie heterogenicznych mediów”18. Uświadomienie mimetyczności mapy jako wyniku pewnego szczególnego sposobu jej interpretacji oznacza jednocześnie uwolnienie od zbyt mocnego, jednokierunkowego związku między mapą a terytorium. Ma to istotne znaczenie dla postrzegania roli urbanisty i projektanta miejskich przestrzeni jako tego, który pracuje z taką czy inną mapą terytorium, przy czym mapa w tym ujęciu jest synonimem (nowoczesnego) rzekomo obiektywnego odwzorowania przestrzeni. Jest jednocześnie znaczące to, że Latour, November i Camacho-Hübner w artykule poświęconym remediacji mapy w warunkach cyberkartografii zastanawiali się nad możliwością zmapowania ryzyka. Kilka projektów, które pokazują, na czym polega mapa jako platforma nawigacyjna, a jednocześnie stanowią instancję mapowania wspólnotowego w znaczeniu, o którym więcej w dalszej części, ma bowiem istotny związek z kategorią kryzysu. Dają się one ująć jako „aktywizm mapowy”, czyli połączenie dziennikarstwa obywatelskiego, aktywności politycznej i/lub społecznej oraz usług geolokalizacyjnych i/lub cyberkartograficznych – bywa także czasami nazywane maptywizmem19 [maptivism – przyp. A.N.]. Jednym z takich projektów jest cieszący się już pewną sławą zestaw narzędzi znanych pod globalną nazwą Ushahidi (w języku suahili oznacza to świadectwo lub świadka)20. Portal zawiązał się w Kenii w roku 2008, kiedy w wyniku wyborów doszło tam do zamieszek między grupami ludności popierającymi dwóch różnych kandydatów – sam proces wyborczy także był mocno krytykowany, a jego wyniki podawano w wątpliwość. Kraj został ogarnięty falą przemocy i jednocześnie swoistym blackoutem informacyjnym, kiedy prezydent-elekt Mwai Kibaki zarządził blokadę mediów: miejscowe radio i telewizja nadawały jedynie powtórki starych programów. W tej sytuacji jedynym kanałem komunikacyjnym stały się blogi oraz wiadomości wymieniane za pomocą telefonów komórkowych (w Afryce, podobnie jak w innych miejscach świata o utrudnionym dostępie do Internetu, prym wiodą niedrogie telefony komórkowe). Nie była to jedyna ani pierwsza sytuacja tego rodzaju w ostatnim pięcioleciu, co wielu obserwatorom daje asumpt do mówienia o twitterowych rewolucjach21 czy wyrażanym wprost przekonaniu o związkach między mediami społecznościowymi a nowymi ruchami obywatelskimi22. W takich warunkach zrodził się pomysł zbudowania serwisu, który mógłby służyć informacją nie tylko o najnowszych wydarzeniach, ale także o sytuacjach wymagających interwencji i osobach, którym jest potrzebna pomoc. Inicjatorami były trzy osoby związane z mediami społecznościowymi i Kenią: prawniczka i blogerka Ory Okolloh, która jako obserwatorka wyborów otrzymywała w 2008 roku groźby śmierci, Juliana Rotich, Kenijka i specjalistka od technologii informacyjnych, oraz Eric Hersman, wychowany w Kenii syn misjonarzy, który edukację w zakresie biznesu i nowych technologii uzyskał w Stanach Zjednoczonych. Musiał to być serwis oparty na rozwiązaniach typu open source, w którym można byłoby 18 19 20 21 22
Tamże, s. 109. Ch. Kreutz, Maptivism. Maps for activism, transparency and egagement, www.crisscrossed.net/2009/09/14/maptivism-maps-for-activism-transparency-and-engagement (dostęp: 15.08.2011 r.). Www.ushahidi.com (dostęp: 20.10.2011 r.). J. Leyne, How Iran’s political battle is fought in cyberspace, BBC News, http://news. bbc.co.uk/2/hi/middle_east/8505645.stm (dostęp: 20.10.2011 r.). Digital Activism Decoded. The New Mechanics of Change, red. M. Joyce, Nowy Jork 2010; M. Ingram, Social media, tipping points and revolution, GigaOM, http://gigaom. com/2011/11/02/social-media-tipping-points-and-revolutions/ (dostęp: 3.11.2011 r.).
152
zamieszczać dane o różnorodnym charakterze i od razu lokalizować je na mapie23. Miała to być także platforma do wykorzystywania przez zwykłych Kenijczyków i jednocześnie system archiwizacji doniesień, zorganizowanych tematycznie. Dzisiaj Ushahidi tworzy znacznie większy zespół, którego członkowie prowadzą też podobne inicjatywy jako projekty poboczne (np. International Network of Crisis Mappers Patricka Meiera24). Serwis składa się obecnie z kilku narzędzi – nie tylko mapy w standardzie OpenStreetMap i bazy danych w postaci raportów, notatek i zdjęć naocznych świadków wydarzeń czy informacji o potrzebie pomocy, ale także narzędzia SwiftRiver, służącego do organizacji informacji wokół konkretnych zdarzeń czy Crowdmap, narzędzia pozwalające na uruchomienie platformy mapowej bez potrzeby posiadania własnego serwera sieciowego. Ushahidi było wykorzystywane podczas najbardziej dramatycznych klęsk żywiołowych, np. po trzęsieniu ziemi u wybrzeży Japonii czy – w październiku 2011 roku – w trakcie katastrofalnej powodzi w Tajlandii. Serwisem posługiwali się także rebelianci z Tunezji i Libii podczas rewolt politycznych w obu krajach. Ushahidi jest szczególnie interesującym przykładem także ze względu na swoją historię i miejsce, w którym się narodziło – innowacje w dziedzinie nowych technologii komunikacyjnych stosunkowo rzadko pojawiają się poza krajami wysokorozwiniętymi, prawie nigdy ich źródłem zaś nie jest kraj afrykański. Afryka to bowiem wciąż kontynent najbardziej dotknięty cyfrowym wykluczeniem, choć zmienia się to właśnie za sprawą mediów mobilnych, nie zaś tradycyjnej infrastruktury informacyjnej. Aspekt ten znakomicie ujął autor artykułu poświęconego Ushahidi w „New York Timesie”, nadając relacji tytuł Africa’s Gift to Silicon Valley: How to Track Crisis25. Inicjatywy takie pokazują nie tylko arbitralność tradycyjnego aparatu pojęciowego związanego z mapami i mapowaniem, gdzie nacisk padał na „obiektywizm” mapy, gwarantowany przez autorytet wąskich elit eksperckich wyposażonych w wiedzę, narzędzia i metodologie niezbędne do jej sporządzenia (warto przypomnieć, że, jest to proces wieloetapowy i wymagający złożonych i interdyscyplinarnych kompetencji). W przypadku partycypacyjnych serwisów mapowych widać dość wyraźnie kolejne warstwy, jakie składają się na procedurę jej wytwarzania. Na każdym etapie zostaje uwzględniona oddolna aktywność, a proces „zbierania danych” jawi się nie tyle jako naukowa procedura wdrażana przez zdystansowanych wobec przedmiotu badań specjalistów, ale jako proces ryzykowny, polityczny i stanowiący specyficzną formę kapitału społecznego; oparty na energii stanowiącej jej istotny zasób. Tam, gdzie w grę wchodzi praktyka mapowania wspólnotowego, ma się do czynienia właśnie z odkrywaniem (oraz inwestowaniem) sporych pokładów energii społecznej. Energia ta rzadko znajduje ujście w warunkach odgórnego zarządzania miastem, do jakiego były przywiązane nowoczesne koncepcje urbanistyczne i projektowe, oparte przede wszystkim na paradygmacie funkcjonalistycznym. Proces zbierania danych może być rozproszony i oparty na lokalnych działaniach typu Do-It-Yourself niemal w całości: pokazuje to poradnikowy blog Grassroots Mapping26, który zachęca do budowania urządzeń w rodzaju balonów i latawców dających możliwość wykonywania zdjęć lotniczych w mikroskali. Ma to istotne znaczenie w przypadku terenów peryferyjnych, ale także przekłada się na polityki taktycznego oporu wobec hegemonii 23 24 25 26
E. Hersman, Activist Mapping Presentation at Where 2.0, http://whiteafrican. com/2008/05/15/activist-mapping-presentation-at-where-20/ (dostęp: 15.08.2011 r.). http://crisismappers.net/ (dostęp: 20.10.2011 r.). A. Ghiridaradas, Africa’s Gift to Silicon Valley: How to Track z Crisis, „New York Times” 13.03.2010, wersja online www.nytimes.com/2010/03/14/weekinreview/14giridharadas. html (dostęp: 15.08.2011 r.). http://grassrootsmapping.org/ (dostęp: 16.09.2011 r.).
153
Google Maps: w tym przypadku zdjęcia będące efektem rekonesansu są własnością konkretnych osób i społeczności, nie zaś towarem na informacyjnym rynku. Motywacje twórców Grassroots Mapping są artykułowane dosyć wyraziście: „Potrzebujesz map? Uczestniczysz w dyspucie kartograficznej? Nie zgadzasz się na oficjalną wersję twojej geografii? Skontaktuj się z nami za pomocą publicznej listy mailingowej albo bezpośrednio z naszym zespołem i jeszcze dzisiaj zainicjuj własny, oddolny projekt mappingowy!”27. Bez wątpienia można te słowa uznać za manifest maptywizmu. W nurcie zamiany praktyki mapowania w aktywność o charakterze politycznym mieszczą się także intrygujące interwencje artystyczne, koncentrujące się właśnie wokół mapowania, geografii i nowego rozumienia miejskiej przestrzeni publicznej28. Praktyki tego rodzaju zyskują sobie miano radykalnej lub krytycznej kartografii, czasem wręcz kontrkartografii. Ku wspólnocie projektowania, ku wiedzy wytwarzanej wspólnotowo Zasygnalizowane przemiany w obszarze dyskursu kartografii stanowiącego o podstawach rozumienia takich pojęć, jak miejsce czy przestrzeń mają znacznie głębszy charakter, niż można byłoby sądzić z opisów, zazwyczaj lokalizujących te projekty w pobliżu takiego czy innego rozumienia terminu kultura partycypacji. Stawką będzie tutaj zarówno rozumienie wspólnoty, mieszkańca jako użytkownika czy przestrzeni publicznej, jak i radykalne przewartościowanie paradygmatów projektowania oraz tego, co liczy się jako informacja i/lub wiedza. Christian Nold podczas wykładu Designing for Responsive Communities w ramach seminarium Sensing the Place – Placing the Sense, towarzyszącego festiwalowi Ars Electronica 2011 w Linzu, zaproponował – lekko zmieniając tytuł swojego wystąpienia – bardzo inspirujące i pożyteczne pojęcie wspólnota eksperymentująca [experimental community – przyp. A.N.]. Termin ten, jak się wydaje, znakomicie opisuje rodzaj relacji łączący użytkowników miejskich przestrzeni, zaangażowanych w praktyki mapowania (na różnych etapach). Nawet jeśli jest to zwykły „check-in” wykonany za pomocą smartfona, co bez wątpienia jest czynnością uwikłaną w złożone mechanizmy współczesnej kultury konsumpcyjnej, tak mocno związanej z ekonomią afektywną. W ten sposób bowiem buduje się geoprzestrzenna architektura dynamicznej informacji w przestrzeni hybrydowej. Wspólnota taka byłaby przede wszystkim społecznością wspólnie wytwarzanej wiedzy, proces, który Nold nazwał empiryzmem DIY. Na tym, jego zdaniem, polegałaby choćby działalność OpenStreetMap, który jest oddolnym ruchem kreowania map mających być alternatywą dla korporacyjnego GoogleMaps. Christian Nold sięgał przy tym do historii i socjologii nauki po inspirację podejściem empirycznym w tradycji Roberta Boyle’a, zwłaszcza wspólnotową formą badań laboratoryjnych – taki kształt przyjmowało bowiem w ujęciu brytyjskiego pioniera nowoczesnych nauk doświadczalnych pokazywanie eksperymentu w laboratorium w obecności świadków zdarzenia. Perspektywa ta oznacza pewną reinterpretację podstaw projektu zachodniej nowoczesności, jakie stanowił racjonalny empiryzm. W ujęciu Nolda podejście empiryczne zostaje przeformułowane – w podobny nieco sposób jak w przypadku nawigowalnych map – w kierunku 27 28
Tamże. Por. Experimental Geohraphy: Radical Approaches to Landscape, Cartography and Urbanism, red. N. Thompson, Nowy Jork 2009; A. Gordon i wsp., Atlas of Radical Cartography, Los Angeles 2010; A. Nacher, BioMapping Christiana Nolda. Transmedialna retoryka wędrowna [w:] Sztuki w przestrzeni transmedialnej, red. T. Załuski, Łódź 2010; E. Wójtowicz, Was ist die Befindlichkeit des Landes? W stronę ciemnej geografii, „Kultura popularna” 2010, nr 3–4 (29–30); por. także K. Harmon, G. Clemans, The Map as Art. Contemporary Artists Explore Geography, Princeton 2010.
154
silniejszego uwzględnienia procesu wytwarzania wiedzy, nie zaś tylko jego końcowego wyniku. Jak się więc rzekło, w przypadku dynamicznych, wspólnotowo tworzonych map idzie o rzecz bardzo istotną, o stawce znacznie wyższej niż możliwość zabawy przed komputerem i uczestnictwo w swoistym łańcuchu pokarmowym współczesnej zawartości medialnej. Chodzi ni mniej, ni więcej tylko o przemianę sposobów wytwarzania wiedzy oraz klasyfikacji tego, co uchodzi za naukę/informację; przemianę zachodzącą na skalę znacznie większą, niż zwykło się sądzić, prześlizgując się jedynie „po powierzchni” praktyk maptywistycznych. Warto więc poświęcić nieco uwagi formule eksperymentu naukowego, która stanowiła podwaliny nowoczesnych nauk przyrodniczych i do której to formuły nawiązywał Nold, mówiąc o wspólnotach eksperymentowania. Jak pokazali to Steven Shapin i Simon Schaffer w swojej słynnej książce o XVII-wiecznej debacie między dwoma filozofami29 (debacie, która na długo określi standardy i procedury nowoczesnego postępowania naukowego), trudno mówić o jednej genealogii tego przedsięwzięcia intelektualnego. Pozostawiając nieco na boku zasadniczą kwestię będącą przedmiotem analizy Shapina i Schaffera, sięgnę po wątek, który z perspektywy możliwości i sposobów otwarcia kognitywnej przestrzeni publicznej będzie miał istotne znaczenie. Kluczowe znaczenie ma tutaj laboratorium jako miejsce, w którym odbywał się eksperyment (w tym przypadku chodzi o słynne doświadczenie Boyle’a z pompą próżniową) oraz wymóg powtarzalności tego eksperymentu. Shapin i Schaffer podkreślali wspólnotowy, publiczny charakter takiej prezentacji; aby uzyskała ona odpowiednią wiarygodność, nie mogła odbywać się w zaciszu przestrzeni prywatnej czy przy udziale jednego tylko badacza. Jednym z gwarantów rzetelności procedury była obecność innych. Nie oznacza to jednak pełnego, otwartego dostępu. Shapin i Schaffer nazwali XVII-wieczne laboratorium ograniczoną przestrzenią publiczną30, aby znaleźć się w niej, trzeba było spełniać pewne warunki: być wykształconym mężczyzną z odpowiedniej warstwy społecznej i z niebagatelnym dorobkiem naukowym. Mechanizmy ograniczania tej przestrzeni pokazuje przypadek Margaret Cavendish, pierwszej kobiety, której pozwolono uczestniczyć w zebraniu brytyjskiego Królewskiego Towarzystwa Naukowego w 1667 roku31. Członkowie Towarzystwa nie mogli pozwolić sobie na zignorowanie księżnej Newcastle, hojnie wspierającej finansowo uniwersytet Cambridge (a także autorki kilku ważnych prac z zakresu filozofii naturalnej, m.in. Philosophical Letters, szczegółowej krytyki Leviathana Hobbesa32), zorganizowano więc dla niej prezentację eksperymentu Boyle’a. Na długo pozostała jedyną kobietą, która uczestniczyła w spotkaniach Królewskiego Towarzystwa Naukowego. Organizacja pracy naukowej zaproponowana przez Boyle’a będzie miała dwie istotne konsekwencje: po pierwsze, przyczyni się do wykrystalizowania się probabilistycznej i konwencjonalistycznej33 (a nie absolutnej) koncepcji wiedzy na29 30 31
32 33
S. Shapin, S. Schaffer, Leviathan and the Air-Pump. Hobbes, Boyle, and the Experimental Life, Princeton 1985. Tamże, s. 39. Por. D.J. Haraway, Modest_Witness@Second_Millenium. FemaleMan©_Meets_OncoMouse™. Feminism and Technoscience, Nowy Jork–Londyn 1997; L. Schiebinger, The Mind Has No Sex? Women in the Origin of Modern Science, Harvard University Press 1991. L. Schiebinger, The Mind... Por. K. Abriszewski, Poznanie, zbiorowość, polityka. Analiza teorii aktora-sieci Bruno Latoura, Kraków 2008, a także o tym, jak probabilistyczna koncepcja prawdy naukowej kształtowała życie umysłowe liberałów wiedeńskich w XIX wieku, D.R. Coen, Vienna in the Age of Uncertainty. Science, Liberalism and Private Life, Chicago–Londyn 2007.
155
ukowej. Istotne jest bowiem w tym przypadku rozpowszechnienie przekonania o tym, że eksperyment dowiódł prawdy wśród tych, którzy byli jego świadkami (a więc sfera przekonań i sfera faktów zbliżają się do siebie nader blisko, a wręcz z siebie wynikają: faktem naukowym jest bowiem to, co zostanie za takowy uznane). Boyle postulował, aby domena faktów była ustanawiana przez zgromadzenie przekonań jednostek. Członkowie intelektualnej wspólnoty musieli wzajemnie upewniać siebie i innych, że wiara w doświadczenie empiryczne była uzasadniona. Domena faktów była wynikiem procesu przeprowadzenia eksperymentu, poświadczenia go wobec siebie oraz upewnienia innych, że ich wiara w doświadczenie miała wiarygodny grunt. W tym procesie zwielokrotnienie świadectw miało kluczowe znaczenie34.
Po drugie – Shapin i Schaffer pokazali, że ustanawianie domeny faktów w eksperymentalnym programie Boyle’a zawierało w sobie trzy formy technologii: materialną (posadowioną w konstrukcji i funkcjonowaniu pompy próżniowej35), literacką (za jej pomocą zjawiska powstałe w wyniku działania pompy próżniowej były udostępniane tym, którzy nie mogli być tego świadkami36) oraz społeczną (która zawierała konwencje, na mocy których filozofowie eksperymentalni porozumiewali się ze sobą i rozważali sądy prawdy naukowej37). Autorzy jednocześnie dowiedli, jak wszystkie trzy technologie były ze sobą połączone, wspólnie działając na rzecz upowszechnienia metody Boyle’a jako obowiązującego standardu. Jest zatem dosyć jasne, że wspólnoty organizujące się wobec projektów maptywistycznych mogą być uznane za takie kolektywy. Grupy, jakie każdorazowo brały udział w projekcie BioMapping, realizowanym przez Nolda w kilku miastach, mogą być nazwane, zdaniem artysty, właśnie takimi eksperymentującymi wspólnotami, zwłaszcza w ramach procedury, w której wymiana subiektywnych wrażeń i odczuć zmieniała się w formę kolektywną i stawała się obszarem intersubiektywnych faktów. Tak właśnie było w przypadku osób uczestniczących we wspomnianym projekcie (BioMapping), kiedy po spacerach zrealizowanych ze specjalnym urządzeniem rejestrującym wzrost emocji i nanoszącym je na mapę Google Earth, uczestnicy musieli również opowiedzieć o tym doświadczeniu i wskazać na przyczyny emocjonalnego pobudzenia. Wiele takich spacerów składało się na mapę fragmentów miasta, które pokazywały jego specyficzną warstwę, związaną z uczuciami, pamięcią i wrażeniami zmysłowymi (w zależności od formy i celów projektu, gdyż działania w San Francisco, Stockport, Greenwich i kilku innych miejscach różniły się między sobą). W tradycyjnych ramach epistemologicznych tego rodzaju warstwy byłyby raczej uznane za subiektywne wrażenia niż zobiektywizowaną informację. W tym przypadku mamy jednak do czynienia z, jak to ujął Nold, „kolektywną domeną faktów” (a collective matter of fact). Robert Boyle, a za nim nowoczesne nauki przyrodnicze, określał ten etap badania naukowego właśnie mianem domeny faktów, „Matter of Facts”, uznając je za posiadające istotniejszy ciężar gatunkowy niż domena interpretacji czy opinii. W pewnym sensie dosyć oczywiste jest zdanie, że nowoczesne przedsięwzięcie naukowe, ucieleśniane przez nauki ścisłe i przyrodnicze, zdecydowanie większym zaufaniem obdarza twarde fakty niż postrzegane jako dyskusyjne, pozbawione pewności interpretacje i opinie. Jak jednak doskonale pokazuje analiza
34 35 36 37
S. Shapin, S. Schaffer, The Leviathan..., s. 25. Tamże. Tamże. Tamże.
156
Shapina i Schaffera, skutkująca m.in. opisem procesu dochodzenia do ustalenia wyników doświadczenia, który wcześniej przywołałam, kształtowanie domeny faktów naukowych (stwierdzanych eksperymentem) zasadzało się u samych swoich podstaw właśnie na pracy opinii. A zatem strategie nowoczesnej nauki spowodowały usunięcie z pola widzenia procesu dochodzenia do efektów eksperymentu na rzecz eksperymentu jako „gotowego produktu”, „obiektu” w łańcuchu działań, które można uznać za wiarygodną metodę naukową. Prywatność, wspólnota a władza projektowania Wydaje się, że pojęcie zbiorowość eksperymentująca ma dzisiaj bardzo ważną rolę do odegrania. W przypadku miejskiej przestrzeni publicznej oznacza fakt, że istotne przesunięcia w użytkowaniu miasta dokonują się w obszarze sposobów wytwarzania, organizacji i dystrybucji wiedzy; w przypadku badań nad mediami społecznościowymi pozwalają wyjść poza spetryfikowaną i zużytą kategorię aktywnego użytkownika czy uczestnika kultury partycypacji. Nie samo bowiem uczestnictwo, ale całościowa architektura obiegu informacji ma tutaj istotne znaczenie (jak w przypadku użytkowników portali społecznościowych, którzy są tyleż beneficjentami, co współproducentami serwisu, nawet jeśli wykonują minimalną aktywność dostarczania danych czy „uczenia” algorytmów). Miasto w przypadku projektów krytycznej kartografii staje się wspólnotą wiedzy – wspólnotą uczących się i negocjujących protokoły kształcenia/wytwarzania wiedzy eksperckiej i opartego na niej projektowania. Tradycyjnie wiedza ekspercka znajdowała się w rękach urbanistów, projektantów i architektów. Można wręcz mówić już chyba o oddolnej urbanistyce – pokazują to inicjatywy w rodzaju idei miasta współdzielonego (Shareable City, www.shareable.net/channel/cities) czy projektów realizowanych w ramach amerykańskiej inicjatywy Project for Public Spaces www.pps.org/placemaking/projects/featured-projects/). Oddolne projektowanie, nieoznaczające wszak chaotycznego i zdezorganizowanego pospolitego ruszenia, może odbywać się zgodnie z logiką, którą Usman Haque i Matthew Fuller nazwali modularną i granularną (modularity/granularity)38, przez analogię do open source’owych projektów software’owych. W tych ostatnich partycypuje się w zadaniach dostosowanych do kompetencji – od zupełnie rudymentarnych po te najbardziej złożone. Modularność, którą Lev Manovich uznał niegdyś za jedną z podstawowych cech języka nowych mediów, można tutaj rozumieć w jeszcze inny sposób: „Modularność w tym sensie oznacza organizację projektu w sposób, który umożliwia zaangażowanie produktywne w różnej skali, w krótkich i długotrwałych interwałach, a to – jeśli chodzi o wiedzę ekspercką – zachęca do uczestnictwa na różnych poziomach zaawansowania: od początkującego do bardzo wyrafinowanego”39. Stąd logicznie wypływa konkluzja: Większość zakończonych z sukcesem projektów FLOSS [określenie autorów na open source ze szczególnym odcieniem: Free, Libre czy Open Source Software – przyp A.N.] jest napędzana znacząco granularnymi formami uczestnictwa. Podczas gdy takie formy zaangażowania umożliwiają jego różnorodne formy, tym, co często łatwo przeoczyć w opisie struktury takich projektów, jest fakt, że umożliwiają one postawienie problemów według rosnącej skali trudności i mogą być także rozpatrywane jako środowiska uczenia się na olbrzymią skalę. Byłaby to także dobra definicja miasta40 [podkr. – A.N.]. 38 39 40
U. Haque, M. Fuller, Situated Technologies 2: Urban Versioning System 1.0, The Architectural League of New York, Nowy Jork 2006. Tamże, s. 38. Tamże.
157
Warto zauważyć, że „środowiska uczenia się na olbrzymią skalę” współbrzmią ze „wspólnotami eksperymentującymi”. Dobrze widać, jak te środowiska działają, a jednocześnie, jak zmienia się rola eksperta i wiedzy eksperckiej zarówno na przykładzie projektów maptywistycznych, jak i programów nowej urbanistyki. Projekty te zdecydowanie wykraczają poza formuły tradycyjnych „konsultacji społecznych”, które zresztą rzadko przynoszą realny efekt, gdyż są wynikiem ramy pojęciowej, gdzie inicjatywa i decyzja pozostaje i tak w rękach władz, inwestorów czy planistów. Natomiast mieszkańcy miast mają często do spełnienia funkcję uwiarygodnienia „na papierze” przeprowadzenia konsultacji, będących wszak obowiązkowym punktem procesu podejmowania decyzji o inwestycji. Niezupełnie chodzi tutaj o to, że „ekspertem może być każdy” i że „anything goes”, jak chciałaby tego zdroworozsądkowa, obiegowa opinia o tego typu przedsięwzięciach. Widać nieco odmienny proces – wiedza ekspercka jest tworzona w sposób partycypacyjny i współdzielony, można rzec, modularny, w zakresach odpowiadających doświadczeniom mieszkańców miasta. Jest jednocześnie weryfikowana przez poczucie wspólnej identyfikacji z problemem oraz gotowość do podejmowania inicjatyw na rzecz jego rozwiązania. Analogia między modularnością projektów określanych przez Haque i Fullera jako FLOSS a modularnością aktywności mieszkańców zaangażowanych w projektowanie i tworzenie swoich lokalnych społeczności miejskich miast jest uzasadniona. Shareable City jest odnogą (rodzajem platformy informacyjnej i aktywizującej) magazynu online Shareable: Sharing by Design, który określa swoją misję jako magazyn prezentujący „opowieść o współdzieleniu (sharing)” i deklaruje, że „pisze o ludziach i projektach przybliżających zaistnienie współdzielonego świata, a także dzieli się poradami tak, aby każdy mógł zrealizować współdzielenie w swoim własnym życiu”41. W tym przypadku idea współdzielenia (sharingu) została zaimplementowana w dosyć oczywisty i wyraźny sposób z praktyk cyberkulturowych. Haque i Fuller zatytułowali zresztą swoje opracowanie w ramach serii Situated Technologies42 poświęconej związkom nowych technologii komunikacyjnych z miastem, Urban Versioning System 1.0, wprost odnosząc się do pojęcia z dziedziny projektowania oprogramowania, CVS (Concurrent Versioning System) – metody, która pozwala właśnie na taką modularną pracę. Zdaniem autorów, w odniesieniu do projektowania przestrzeni miejskiej, taki system po pierwsze, „umożliwiałby jednoczesność rozwoju, testowania i zamieszkiwania. Po drugie, dostarczałby infrastruktury granularnemu uczestnictwu każdego projektanta-uczestnika. To, że system umożliwiałby każdemu bycie współ -projektantem, niekoniecznie oznacza, że każdy byłby gotowy się zaangażować w proces projektowy [...] Taka organizacja pracy oznacza jednak, że ci, którzy chcą operować w ramach tego trybu tworzenia wiedzy, postrzegania i działania mogą mieć różne umiejętności, intencje i wymagania. [...] Architektura wytwarzana w otwartym procesie nie jest nigdy skończona: nie istnieje rozróżnienie między projektowaniem i zamieszkiwaniem”43. Jest to zupełnie inna wizja działań związanych z produkcją i dystrybucją wiedzy, które są wpisane w proces projektowania-zarządzania miejskimi przestrzeniami, bliższa nieco anarchicznym założeniom design-for-appropriation, być może nawet design-for-hackability. Założenia te proponują otwarcie całego procesu i koncentrację na działaniu, wciągnięciu w działanie użytkownika, który tym samym staje się
41 42 43
www.shareable.net/about (dostęp: 12.11.2011 r.). www.situatedtechnologies.net/?q=node/1 (dostęp: 13.11.2011 r.). U. Haque, M. Fuller, Situated..., s. 21.
158
w dużym stopniu współprojektantem44. Można mówić w tym przypadku o pewnej ogólniejszej zmianie, która jest związana z dziedziną projektowania w obszarze technologii interaktywnych: „Elisa Giaccardi i Gerhard Fischer określają metadesign jako nowy paradygmat projektowania, którego zasadniczy rys wyznacza dążenie do włączenia w proces projektowania użytkowników; realizując własne zamierzenia i cele, byliby oni także współodpowiedzialni za powstające projekty i sposoby rozwiązywania konkretnych zadań w trakcie projektowania”45. Choć zarówno termin metadesign (zwany także, co jest znamienne w kontekście poruszanej przeze mnie problematyki, projektowaniem uczestniczącym), jak i składające się nań praktyki oraz kodeks zasad pochodzą ze sfery technologii interaktywnych i oprogramowania, to obecnie ma się już do czynienia z jego ucieleśnieniem w postaci open hardware (jak pokazuje to przykład platform Arduino, www.arduino.cc). Istnieje także przykład tego rodzaju w architekturze: słynne Diagoon Houses zaprojektowane na przełomie lat 60. i 70. XX w. w Delft przez Hermana Hertzenbergera46. Architekt proponował szkielety modułów, które mieszkańcy mieli sami zaprojektować i wykorzystać, nazywając je półproduktami i niekompletnymi budynkami. Zaskakującą konstatacją jest fakt, że tego rodzaju apropriację przestrzeni i konstruowanie z jednoczesnym projektowaniem i zamieszkiwaniem często można dostrzec w miejskich gettach, favelach czy slumsach – w tym przypadku często mówi się o projektowaniu wernakularnym W miejscach, gdzie mieszkańcy nie mają często innych możliwości pozyskiwania obszaru do zamieszkania i gdzie życie wymaga szczególnej kreatywności. Jak widać, dynamiczne mapowanie partycypacyjne, maptywizm i współprojektowanie miejskiej przestrzeni są połączone ze zmieniającymi się paradygmatami zarówno w zakresie posługiwania się nowymi mediami, jak i projektowania oprogramowania. Opis ich wyłącznie w nieco już spetryfikowanej optyce kultury partycypacji, Web 2.0 czy interaktywności nie wyczerpuje tematu, a nawet nie pozwala dostrzec istotnych zmian zachodzących znacznie głębiej, niż pokazuje to warstwa interfejsu (czyli nawigowalnej mapy). Wydaje się, że równie istotne tematy kryją się wciąż za horyzontem współczesnych zastosowań technologicznych. Próbując odgadnąć, co niesie przyszłość (czy raczej zabawić się w futurologiczne wizjonerstwo), warto utrzymywać dialogiczny związek z przeszłością, bo wydaje się, że nie pozostaje ona nigdy kwestią zamknięta i skończoną. Może dlatego, że również podlega projektowaniu.
44
45 46
Por. A. Nacher, Projektowanie jako negocjacja – między dominacją kodu a ekstazą partycypacji, „Kultura Współczesna” 2009, nr 3(61). W tym samym numerze „Kultury Współczesnej” do tek tematyki odnosi się także M. Składanek, Projektowanie interakcji – pomiędzy wiedzą a praktyką. M. Ożóg, Projektowanie sztuki. Sztuka nowych mediów w perspektywie metadesignu, „Kultura Współczesna” 2009, nr 3(61), s. 127; por. także E. Giaccardi, G. Fischer, Kreatywność i ewolucja: perspektywa metadesignu, „Kultura Współczesna” 2009, nr 3(61). www.afewthoughts.co.uk/flexiblehousing/house.php?house=48. Por. także U. Haque, M. Fuller, Situated...
159
Teorie mindware
Postmediacje
Sztuka mediów
Perspektywy dialogu nauki i sztuki w pracach Art Orienté Objet i Paula Vanouse’a Maciej Ożóg
161
Wstęp Wielowymiarowe relacje pomiędzy naukowcami a artystami oparte na transdyscyplinarnym dialogu stanowią jeden z kanonów ponowoczesnej kultury. Wzajemna wymiana informacji, konfrontacja punktów widzenia, metod pracy, motywacji i celów, jednym słowem otwartość i przychylne zainteresowanie odmiennym sposobem postrzegania, poznawania i interpretowania rzeczywistości umożliwiają efektywną współpracę i przynoszą wymierne korzyści obu stronom, a przede wszystkim społeczeństwu. Jednocześnie zarówno w teoretycznych ujęciach trzeciej kultury1, jak i w doświadczeniu praktyków interdyscyplinarna kooperacja napotyka na wiele przeszkód. Część z nich wynika z przywiązania do tradycyjnego, alienującego sposobu definiowania nauki i sztuki. Wykroczenie poza utrwalony w XIX i XX wieku podział na dwie kultury2 wymaga gotowości do zakwestionowania wcześniej niepodważalnych przekonań, a to okazuje się często trudne tak dla naukowców, jak i dla artystów, i narzuca konieczność stopniowego przygotowania, które można traktować jako formę oswojenia z innością. Równie często problemem staje się odmienne usytuowanie nauki i sztuki w kontekście instytucjonalnym i ekonomicznym oraz przeświadczenie o wyraźnie zróżnicowanych zadaniach, jakie nauka i sztuka pełnią względem społeczeństwa i kultury. Efektywność, funkcjonalność i opłacalność dociekań naukowych stoi w kontrze do niezdeterminowanego, otwartego, eksperymentalnego i rzadko przynoszącego wymierne, materialne korzyści podejścia artystów. Problematyczny charakter dialogu naukowców i artystów wiąże się także wprost z wciąż obecnym w świadomości kolektywnej przekonaniem o zasadniczo odmiennych funkcjach nauki i sztuki w społeczeństwie i kulturze. Nauka to obiektywne poznania, sztuka natomiast jest utożsamiana ze swobodną subiektywną wyobraźnią. Pogląd ten, choć nie wytrzymuje konfrontacji z rzeczywistym stanem praktyki naukowej i artystycznej, stanowi wciąż źródło nieporozumień i wymaga stałej, rzetelnej krytyki. Sztuka biologiczna jako przykład transdyscyplinarnego dialogu W dalszej części tekstu skoncentruję się na badaniu działań artystycznych, których podstawą jest transdyscyplinarny dialog nauki i sztuki. Korzystając z zaproponowanej przez Stephena Wilsona kategorii artysty-badacza3, zajmę się przede wszystkim tymi formami sztuki, w których wysokie kompetencje artystów w zakresie wykorzystywanych przez nich obszarów nauki łączą się z krytycznym namysłem nad kulturowymi uwarunkowaniami dociekań naukowych. Wybór przykładów – duet Art Orienté Objet oraz Paul Vanouse – podyktowany był chęcią przedstawienia odmiennych perspektyw dialogu i zarazem zróżnicowanych sposobów uwikłania i odniesienia artystów do praktyki naukowej. Francuski tandem Art Orienté Objet ukazał naukę w szerokim kontekście ideologicznym, skupiając się, z jednej strony, na zewnętrznych i wewnętrznych uwarunkowaniach i ograniczeniach praktyki badawczej, z drugiej zaś, zadając pytania o etyczny wymiar naukowej eksploracji rzeczywistości. Stosunek francuskich artystów do relacji nauki i sztuki charakteryzuje radykalny adogmatyzm, znajdujący wyraz w transgresyjnym i eksperymentalnym podejściu do reguł i procedur naukowych. Dlatego realizowane przez nich projekty traktuję jako formę 1 2 3
Trzecia kultura. Nauka u progu trzeciego tysiąclecia, red. J. Brockman, przeł. P. Amsterdamski, J. i M. Jannaszowie, M. Ryszkiewicz, M. Tempczyk, W. Turopolski, Wydawnictwo CiS, Warszawa 1996. Ch.P. Snow, Dwie kultury, przeł. T. Baszniak, Prószyński i S-ka, Warszawa 1999. S. Wilson, Information Arts. Intersections of Art, Science, and Technology, MIT Press, Cambridge MA, Londyn 2002.
163
prowokacji, wyzwania rzuconego nauce, którego efektem jest poszerzanie granic samej nauki, ale też jej społecznej percepcji. Powszechne wyobrażenia na temat roli i miejsca nauki w kulturze to główny temat prac Paula Vanouse’a. Korzystając z biotechnologii, zadawał pytania o mity i przesądy kreujące powszechne wyobrażenie o mikrobiologii. Jego twórczość łączy funkcję edukacyjną z krytyką kulturową. Prezentując konkretne procedury badawcze i sposób funkcjonowania biotechnologii zarazem, inicjuje debatę o przyczynach, formach i konsekwencjach mitologizacji współczesnej nauki. Art Orienté Objet i Paul Vanouse to artyści zaliczani do nurtu sztuki biologicznej. Wybór przykładów jest podyktowany przeświadczeniem, że właśnie w obszarze nauk o życiu dokonują się współcześnie przeobrażenia, które radykalnie zmieniają otaczający świat i nas samych. Jednocześnie nauki biologiczne oraz biotechnologie stały się u progu nowego tysiąclecie jednym z najbardziej „gorących” i kontrowersyjnych tematów w debacie publicznej. Z jednej strony, prowadzą do nowego określenia fundamentów wiedzy o życiu, z drugiej, zmuszają do refleksji nad nową, postbiologiczną etyką, wskazując zarazem konieczność rewizji podstaw obowiązującego dotychczas systemu prawnego. Podobnie jak sto lat temu fizyka kwantowa i einsteinowska teoria względności ustanowiły nowy paradygmat nauk przyrodniczych, tak współcześnie osiągnięcia nauk o życiu zmuszają do „całkowicie nowego sposobu myślenia o świecie, gdyż oferują niespotykane wcześniej możliwości manipulacji rzeczywistością”4. Osiągnięcia stawiają tym samym pod znakiem zapytania tradycyjne rozumienie tak, wydawać by się mogło, podstawowych i stabilnych kategorii, jak: natura, człowiek, rodzina, rodzicielstwo czy indywidualność. Równocześnie rozpalają wyobraźnię i dostarczają energii wizjonerom kultury popularnej, stając się tematem futurystycznych opowieści o „nowym wspaniałym świecie” bądź apokaliptycznych wizji zdegradowanego postludzkiego i postnaturalnego świata mutantów. Świadomości przełomu paradygmatycznego towarzyszy wynikająca równie często z niewiedzy, co z manipulacji opinią publiczną mitologizacja samej nauki, zdobywanej w wyniku badań naukowych wiedzy, jak i możliwości jej zastosowania. Rozumienie nauki jako aktywności poznawczej dedykowanej bez reszty poszukiwaniu czystej, nieuwarunkowanej, obiektywnej prawdy, wolnej od wszelkich wpływów, w szczególności ideologicznych, politycznych i ekonomicznych wciąż stanowi główny rys powszechnego wyobrażenia o działalności naukowej. W świecie płynnych wartości i norm bywa ona postrzegana wciąż jako ostoja „niezbrukanej” relatywizmem wiedzy. Paradoksalnie tam, gdzie dokonuje się bodaj najbardziej radykalny w historii ludzkości przełom w rozumieniu natury rzeczywistości i życia, lokowana jest bezdomna od chwili „śmierci Boga” potrzeba stałości i wiary w istnienie ostatecznej prawdy. Nauka przejmuje – jak zauważyli twórcy Critical Art Ensamble – społeczne funkcje religii, staje się bezwzględnym autorytetem legitymizującym wszelką wiedzę o świecie i zarazem wyznaczającym nasze rozumienie natury i nasz do niej stosunek. Mimo iż metody naukowego poznania w zasadniczy sposób odbiegają od pozanaturalnych źródeł religijnego objawienia, w obliczu totalnej dewaluacji religii właśnie nauka przejęła funkcję wytwarzania mitów sankcjonujących porządek naturalny i tym samym stała się „najważniejszą siłą definiującą i tłumaczącą społeczeństwu strukturę i dynamikę kosmosu oraz genezę i proces powstawania życia, czyli innymi słowy, istotę życia”5. 4 5
J. Vallverdu, Bioethical Art Genome Sense Construction Through Artistic Interactions, „Aesthethika©. International journal on culture, subjectivity and aesthetics” 2006, nr 2(2), s. 8. Critical Art Ensamble 2009, The Promissory Rhetoric of Biotechnology in the Public Sphere, www.critical-art.net/CONE.html (dostęp: 23.11.2011 r.).
164
Mgła mitów, półprawd, stereotypowych wyobrażeń czy przesądów w znacznym stopniu utrudnia rozpoznanie społecznych, kulturowych i etycznych kontekstów nauk o życiu. Mity o biologii i biotechnologiach w stopniu równym, jeśli nie większym niż rzetelna naukowa wiedza, wyznaczają powszechną świadomość zachodzących przemian i ich możliwych społecznych konsekwencji. Mitologizacja wiedzy prowadzi wprost do upowszechnienia uproszczonych, często jawnie fałszywych, przekonań na temat potęgi biologii i nieograniczonego potencjału biotechnologii. Skomplikowana natura procesów wyjaśnianych przez nauki biologiczne, specjalistyczny, wymagający wysokich kompetencji język dyskursu naukowego na równi z powszechnym przeświadczeniem o wysoce wyrafinowanym charakterze procedur i technik wyznaczających kanony biotechnologii sprzyjają „kreatywnym translacjom”, które mają przybliżać tę „ezoteryczną” wiedzę szerokiej publiczności. Ścisły język nauki, służący opisowi niezwykle skomplikowanych procesów, przekształca się w tłumaczeniu w swoistą paranaukową nowomowę, dalece niejednoznaczną, obfitującą w uproszczenia, syntezy i skróty myślowe, ale przede wszystkim naszpikowaną efektownymi, silnie działającymi na wyobraźnię metaforami6. Widziana przez pryzmat metafor i porównań nauka traci przypisywany jej walor obiektywności. Na plan pierwszy wysuwa się zarazem fakt jej kulturowego uwarunkowania oraz uwikłania w skomplikowaną sieć wpływów ideologicznych, politycznych i ekonomicznych. Konkurencja, system patentowy, wolny rynek, bezpieczeństwo narodowe, walka z terroryzmem to tylko najbardziej oczywiste motywy, dla których laboratoria są przekształcane w silnie strzeżone, niedostępne dla przeciętnego człowieka enklawy, w których wykluwa się, a raczej jest stwarzana przyszłość. Artyści-badacze inicjują dialog, który przybliża naukę społeczeństwu i jednocześnie pozwala zobaczyć ją w nowym, ostrzejszym, ukazującym znaczące niuanse świetle. Sztuka jako wyzwanie dla nauki – w poszukiwaniu dialogu Działalność Marion Laval-Jeantet i Benoît Mangin, tworzących grupę Art Orienté Objet (AOO), to przykład nieustannej, mozolnej, niejednokrotnie kończącej się fiaskiem walki o dostęp do zamkniętej w laboratoriach wiedzy i technologii. Wielokrotnie planowane przez nich projekty nie mogły być zrealizowane lub podlegały znaczącym modyfikacjom w wyniku konfrontacji z obecnymi po stronie nauki barierami mentalnymi, ograniczeniami instytucjonalnymi i ekonomicznymi. Historia problematycznych negocjacji z licznymi ośrodkami naukowymi stanowi jednocześnie zapis rozlicznych uwarunkowań, które utrudniają dialog i współpracę naukowców i artystów, ale także wyznaczają ściśle określone ramy badań naukowych, ograniczających tym samym potencjał rozwojowy samej nauki. Zrealizowane w 2001 roku dwa projekty A Pioneer World oraz Pioneer Ark są bezpośrednim efektem wizyty artystów w ośrodku Pioneer’s Farm. W tamtym czasie był on jedynym w Australii „przytułkiem” dla zwierząt, które uległy mutacjom w wyniku eksperymentów naukowych oraz negatywnego oddziaływania zanieczyszczonego środowiska. Artyści uzyskali wyjątkową możliwość obejrzenia tej zamkniętą dla zwiedzających wystawy osobliwości, jednak nie mogli wykonywać żadnej dokumentacji. Zakaz fotografowania i filmowania był motywowany dbałością o wrażliwość odbiorców i chęcią uniknięcia epatowania opinii publicznej drastycznymi obrazami. Zainspirowane wizytą prace wskazują jednak także inne, zakamuflowanie, niewyrażane wprost intencje. Farma Pionierów jest 6
P.E. Griffiths, Genetic Information: A Metaphor in Search of a Theory, „Philosophy of Science” 2001, nr 68(3), s. 394–412.
165
wprawdzie azylem dla ofiar nauki i postępu cywilizacyjnego, gdzie mogą uniknąć przedwczesnej eksterminacji, jednak zarazem może być traktowana jako getto, w którym ukrywa się zmutowane zwierzęta, będące brutalną manifestacją konsekwencji i kosztów rozwoju nauki. Z jednej strony, ograniczenie w dostępie do informacji można uznać za formę wojny informacyjnej, w której na ostrzu noża zostaje postawiona reputacja, dobre imię i wizerunek nauki. Z drugiej, fakt utworzenia Farmy Pionierów traktować można jako próbę zadośćuczynienia za wyrządzone krzywdy lub sposób zagłuszenia wyrzutów sumienia. Przywołane realizacje AOO tylko do pewnego stopnia mają charakter demaskatorski. Większość zawartych w nich materiałów była publikowana w prasie naukowej, co nie oznacza zarazem, że są znane one szerokiej publiczności. Ukazane w kontekście artystycznym i w tak dużym nagromadzeniu wywołują jednak szok poznawczy. Podobne reakcje towarzyszą pracom, składającym się na tryptyk muzealny: Musée Manifesto 1: musée d’horreurs naturelles (1997), Musée Manifesto 2: musée d’horreurs biologiques (1999), Musée Manifesto 3: musée d’horreurs mentales (2001). Efekt zaskoczenia i grozy jest budowany w nich przez zestawienie formy, kojarzącej się z zabawkowymi domkami dla lalek, z zawartością w postaci miniaturowych replik naukowych eksperymentów, które układają się w swoiste naukowe muzeum osobliwości. Artyści wykorzystują napięcie pomiędzy oswojonym, wygładzonym, chciałoby się powiedzieć infantylizowanym obrazem nauki, a rzeczywistym horrorem rozgrywającym się w zaciszu laboratoriów. Ukazują odwrotną stronę naukowego postępu, znajdującą wyraz w przedmiotowym traktowaniu zwierząt i eksploatacyjnym stosunku do środowiska naturalnego. Pokazują znane, lecz niechciane i niemanifestowane publicznie oblicze nauki. Stawiają pytanie o odpowiedzialności za efekty prowadzonych badań. Równocześnie zmuszają do refleksji nad procederem reglamentacji wiedzy naukowej i wiedzy o samej nauce. Pytają także o poziom świadomości społecznej i stopień upowszechnienia wiedzy o tym, co dzieje się za zamkniętymi drzwiami ośrodków naukowych. Zdecydowanie poważniejsze problemy napotkali artyści w trakcie przygotowywania projektu Que le panda vive en moi. Praca zakładała transfuzję krwi pandy do organizmu Laval-Jeantet. Fakt ten stał się źródłem wielu kontrowersji, które w konsekwencji uniemożliwiły realizację projektu w zgodzie z pierwotnymi założeniami. Pierwszą barierą okazał się brak zgody ogrodów zoologicznych dysponujących pandami na pobranie odpowiedniej do przeprowadzenia eksperymentu ilości krwi zwierzęcia. W tym przypadku kluczowym argumentem była dbałość o dobro zwierząt zagrożonych wyginięciem. Motywacja ta wydaje się logiczna – pobranie dużej ilości krwi mogłoby zaszkodzić pandom. Sądzę jednak, że dobro zwierząt jest w tym przypadku wykorzystane także jako kamuflaż. Realną przyczyną odmowy współpracy mogło być przeświadczenie, że wykorzystanie krwi pand w „podejrzanym” eksperymencie artystycznym może wywołać niepożądane konsekwencje dla ogrodów zoologicznych. Co więcej, po stronie instytucji zabrakło woli uznania prawa artystów do podjęcia działań, które, choć odmienne w formie i metodzie od standardów zinstytucjonalizowanej ekologii, zakładały podobny cel – dobro zagrożonego gatunku. Rysuje się w tym przypadku powielana często bezrefleksyjne wizja relacji nauki i sztuki oparta na silnym napięciu pomiędzy poprawną, absolutyzowaną ekologiczną misją instytucji, a nieodpowiedzialnością żądnych sensacji artystów. Kolejny etap negocjacji nad projektem dotyczył współpracy z ośrodkami badawczymi. Wizja transfuzji krwi zwierzęcia była nie do zaakceptowania dla wielu instytucji naukowych. W końcu artyści nawiązali współpracę ze szwajcarskim instytutem zajmującym się możliwościami ksenotransplantacji w perspektywie terapii nowotworowej. Szczególne znaczenie w kontekście projektu AOO
166
miały badania nad immunoglobulinami i możliwościami uzgodnienia krwi zwierzęcej i ludzkiej. Projekt Que Le Cheval Vive En Moi (Niech koń żyje we mnie) (2011) wpisał się w profil badawczy instytucji, stając się kolejnym, już nie tylko naukowym, lecz naukowo-artystycznym eksperymentem, którego przebieg i rezultaty mają realny wpływ na stan badań i wiedzę naukową, co podkreślali Laval-Jeantet i Mangin: „[...] celem jest przeprowadzenie prawdziwych badań w zakresie terapeutycznego wykorzystania końskiej krwi, w wyniku których stanie się ona kompatybilna i będzie mogła wywoływać ochronne efekty”7. Trwające od 2004 roku konsekwentne działania artystów znalazły tym samym finał w postaci projektu, który w bezpośredni sposób manifestuje potencjał kooperacji artystów i naukowców, ale zarazem stanowi znamienny przykład trudności, na jakie może napotykać transdyscyplinarny dialog. W przypadku francuskiego duetu głównym problemem było przełamanie ostrożnego sceptycyzmu środowiska naukowego wobec zakładanego przez twórców co najmniej niekonwencjonalnego podejścia do eksperymentów naukowych. Artyści proponowali bowiem działania, które nie podporządkowują się naukowym protokołom, zaskakują, wybiegają poza to, co uznawane za normalne, zmuszają do rewizji standardowych wyobrażeń na temat dopuszczalnych metod badawczych i celów poszukiwań naukowych. „Nienaukowość”, „inność” reprezentowanego przez nich podejścia wprowadza zamieszanie, prowokuje zmianę postawy, skłania do otwarcia na nowe perspektywy, ale równie często spotyka się z manifestacyjnym odrzuceniem. Art Orienté Objet prezentuje eksperymentalne podejście do nauki, zakładające nieustanną transgresję status quo i radykalną gotowość do zmierzenia się z nieznanym, nieprzewidywalnym, niezamierzanym. W ten sposób staje się możliwe rozluźnienie często zakleszczonych protokołów praktyki i dyskursu akademickiego. Artyści wykraczają zarazem poza często współcześnie ograniczającą swobodę poszukiwań naukowych determinację ekonomiczną, inicjując badania, które nie są nastawione na konkretne, materialne efekty. Oryginalne podejście artystów może zatem służyć jako medium otwierające nowe perspektywy badawcze, jako zachęta dla naukowców do „eksperymentowania z tym, z czym nie powinno się eksperymentować”8. Artystyczne eksperymenty naukowe AOO, wnosząc do badań naukowych nowe, nieortodoksyjne podejście, sytuując się w obrębie definiowanego przez Stephena Wilsona rozumienia artysty jako badacza: są zarazem kompetentnymi partnerami naukowców, wynalazcami, hakerami i interpretatorami. Jednocześnie przywołane powyżej koleje transdyscyplinarnego dialogu stanowią i manifestują – podkreślaną przez Wilsona – konieczność przygotowania artystów i naukowców do efektywnej współpracy przez redefinicję tradycyjnego ujęcia poszukiwań naukowych i działań artystycznych9. Skłaniają także do przemyślenia podstaw naukowego światopoglądu, a przede wszystkim zastanowienia nad stosunkiem nauki do życia, istot żywych i środowiska. Transgatunkowe braterstwo krwi Istotnym wymiarem twórczości AOO jest ekologia powiązana z krytyczną analizą naukowego sposobu postrzegania środowiska naturalnego. Nauka zakłada poznawczą eksplorację rzeczywistości zmierzającą do zrozumienia rządzących nią 7 8 9
Art Orienté Objet, May the Horse Live in me [w:] CyberArts 2011, red. H. Leopoldsender, Ch. Schopf, G. Stocker, Hatje Cantz, Linz 2011, s. 116. Interview with Art Orienté Objet, 2007, http://we-make-money-not-art.com/archives/2007/01/aoo-was-formed.php (dostęp: 27.11.2011 r.). S. Wilson (1996), Art as Research, http://userwww.sfsu.edu/~swilson/papers/artist. researcher.html (dostęp: 17.11.2011 r.).
167
praw i w konsekwencji lepszego panowania nad naturą. Postawa taka w biologii prowadzi często do uprzedmiotowienia i ubezwłasnowolnienia będących obiektem badań żywych organizmów. Równocześnie, antropocentryzm nauki przejawia się w akcentowaniu aktywnej pozycji człowieka i jego zasadniczej odmienności wobec środowiska naturalnego. Francuscy artyści ujawniali absurdalność podobnych roszczeń w dobie posthumanistycznych przemian w rozumieniu relacji między człowiekiem a światem, ukazując słabość człowieka względem natury, ale przede wszystkim manifestując opłakane skutki aroganckiej władzy nad przyrodą ożywioną i nieożywioną. Projekty ich prezentują perspektywę zbieżną ze sposobem interpretowania i rozumienia relacji człowiek–środowisko, jaką oferują kulturowe studia nad zwierzętami10. W tym duchu są utrzymane prace, które analizują konsekwencje tradycyjnego antropocentryzmu nauki i jednocześnie wskazują na perspektywy rozwoju nowych, odmiennych, opartych na empatycznym współistnieniu, a nie eksploatacyjnej dominacji relacji między ludźmi i zwierzętami. Stałym elementem ich pracy są zwierzęta – ofiary naukowych eksperymentów i ekspansywnej polityki wobec natury. Zmutowane stworzenia przedstawiane w Pioneer’s Ark, galeria osobliwości z cyklu muzealnego, ale także znalezione na śmietniku wypatroszone ciało królika w pracy Rabbits Were Used to Prove (1999) oraz skóry przejechanych zwierząt, z których uszyty został futrzany płaszcz prezentowany jako Roadkills’ Coat (2000) to znaki niszczycielskiej siły cywilizacji, wynikającej nie tyle z potęgi człowieka, co z jego słabości, rekompensowanej ślepą przemocą wobec zewnętrznego świata. Równie ważną rolę w tym procesie odgrywa nieumiejętność postrzegania przyrody jako systemu ścisłych powiązań i zależności. Przykładem może być zachowanie chińskich władz, które chroniąc zagrożoną wyginięciem pandę, zamykają ostatnie osobniki w ogrodach zoologicznych, jednocześnie bezwzględnie niszcząc naturalne środowisko życia tych zwierząt. Laval-Jeantet i Mangin ujęli tę kwestię wprost, zauważając, że człowiek „stara się panować nad zwierzętami przez swoje »nieopanowanie«”11. Nie pozostali jednak tylko na poziomie krytyki ludzkiej dominacji. Bezwzględnie ukazując negatywną stronę postępu cywilizacyjnego, postulują zarazem zmianę postawy wobec przyrody, kreśląc pozytywny program ekologii nauki charakteryzującej się empatycznym stosunkiem do innych istot żywych i środowiska naturalnego. Naukowa empatia wyraża się w dążeniu do przekroczenia granicy dzielącej człowieka od natury. Proces ten polega na powtórnym zatopieniu się w zewnętrznym środowisku, na wytworzeniu stanu symbiozy z naturą. W swych artystycznych eksperymentach naukowych AOO realizowali to zadanie, czyniąc własne ciała przestrzenią naukowego eksperymentu. Charakter taki mają prace Félinanthropie (2007), Jeter les bois (2007), Necking (2007), Le baiser de l’ange (2008) oraz Que le cheval vive en moi, które są oparte na zewnętrznym upodobnieniu do zwierząt – kota, jelenia, żyrafy, ptaków czy konia – za pomocą protez zmieniających wygląd, ale przede wszystkim funkcjonalność poszczególnych części ciał. Ostatnia z nich przesuwa proces upodobnienia także do wnętrza ciała, będąc swoistym rytuałem „braterstwa krwi”, którego konsekwencją są realne zmiany psychofizyczne w organizmie człowieka. Transgresja ciała prowadząca do połączenia z naturalnym otoczenie to także sedno pracy La Pala de Libreville (2003), będącej zapisem szamańskiego rytuału inicjacyjnego Bwiti, w którym uczestniczyli oboje artyści. Cel rytuału, czyli „osiągnięcie specyficznej percepcji otoczenia”
10 11
Zob. C. Wolfe, Animal Rites: American Culture, the Discourse of Species, and the Posthumanist Theory, University of Chicago Press, Chicago 2003; C. Wolfe, What is Posthumanism?, University of Minnesota Press, Minneapolis 2010. J. Salaud, Kit Ecosysteme-Animalite, „Antennae” 2009, nr 10, s. 83.
168
oraz „wyleczenie siebie przez prawdziwe odczucie wartości lasu, otaczającego uczestników rytuału”12, można traktować szerzej jako zakładany cel twórczości artystycznej francuskiego duetu. Walor terapeutyczny empatycznego doświadczenia przyrody stanowi fundament artystycznej strategii Art Orienté Objet. W wielu wypowiedziach definiują swą sztukę jako działanie, które ma inicjować krytyczną debatę na temat wizji natury oraz miejsca człowieka w przyrodzie. Sztuka powinna także pobudzać wrażliwości ekologiczną przez zmianę nastawienia społeczeństwa do natury. Jednak tym, co nadaje szczególny charakter wizji sztuki prezentowanej przez AOO – i co nie powinno dziwić, zważywszy, że Laval-Jeantet profesjonalnie zajmuje się psychoterapią i etnopsychiatrią – jest aktywizm rozumiany jako forma terapii społecznej. W rozmowie z Emilie Gouband Laval-Jeantet przedstawiła syntetyczną wykładnię filozofii sztuki: [...] wierzymy, że poza tworzeniem dzieł sztuki, artysta wykonuje działania zbawienne i katarktyczne dla społeczeństwa. Jesteśmy także przekonani, że jest możliwe przebudzenie indywidualnej świadomości za sprawą sztuki, zarówno w sferze indywidualnej wolności, jak i ekologii. Nazywa się nas często artystami środowiska, gdyż przejawiamy ekstremalne zainteresowanie kwestią przetrwania gatunku ludzkiego w globalnym ekosystemie13.
Człowiek rozumiany jako integralny element przyrody to zarazem człowiek, który musi przekroczyć antropocentryzm i otworzyć się na nowe formy doświadczenia natury. Służy temu jego organizm rozumiany jako wehikuł transgatunkowej komunikacji. Poza antropocentryzm Projekt Que Le Cheval Vive En Moi jest punktem kulminacyjnym w dotychczasowej karierze francuskiego duetu. Skupiają się w nim wszystkie wymienione dotychczas cechy ich twórczości, jednak jego radykalna forma otwiera też nowe, wcześniej nieobecne lub słabiej wyartykułowane wymiary. Istotą projektu jest bezpośrednie przekształcenie ciała Laval-Jeantet w żywe laboratorium, w którym były badane efekty transfuzji immunoglobulin i krwi konia. Opisywany powyżej proces symbolicznego zbliżenia do świata zwierząt w tej pracy przyjmuje postać zespolenia na poziomie biologicznym. Ciało, poszerzone w wyniku transgatunkowego przeszczepu, staje się przestrzenią doświadczenia nieludzkiego, w którym specyficzne dla innego gatunku doznania realizują się zarówno na poziomie fizjologii, jak i psychiki. Organizm artystki podlegał wewnętrznej transformacji, która prowadziła do psychofizjologicznej komunii z istotą innego gatunku. Efektem eksperymentu było otwarcie się na nowe, charakterystyczne dla zwierzęcia doznania i reakcje na bodźce. Zmiana sensorium miała charakter globalny i prowadziła do całkowicie nowego sposobu funkcjonowania organizmu. Z jednej strony, można mówić w tym przypadku o formie „sensorycznej empatii”14, z drugiej zarazem, doszło do wzmożonego odczuwania różnicy międzygatunkowej. Artystka zrelacjonowała, że w trakcie trwania projektu doświadczyła wielu doznań, które okazały się typowe dla zwierzęcia: płytki sen, nadwrażliwość na dotyk, płochliwość 12 13 14
Tamże, s. 84. E. Gouband (2010), Pursuing Ecology Through Art: A Q&A with Art Orient Objet, „ArtInfo. International Edition”, www.artinfo.com/news/story/35257/pursuing-ecologythrough-art-a-qa-with-art-orient-objet?comment_sort=desc (dostęp: 12.11.2011 r.). M. Heberle, Żyj we mnie, przeżyj we mnie. Ciało jako przestrzeń doświadczenia Innego oraz terytorium pamięci w projektach Art Orienté Objet, „Rita Baum” 2011, nr 18, s. 111.
169
połączona z poczuciem niezwykłej siły fizycznej. Podkreśliła jednocześnie, że częściowa wewnętrzna przemiana w konia miała charakter silnie alienujący – doświadczyła uczucia oderwania od własnego ciała, które funkcjonowało w nieznany i nieprzewidywalny, wręcz anarchistyczny sposób. Dlatego podsumowując swe doświadczenia, stwierdziła: „wewnętrznie przestawałam być człowiekiem”15. Eksperyment, przeprowadzony przez artystów, skutkuje odczuciem wewnętrznej hybrydyczności i wiąże się z przekroczeniem typowo ludzkiego modelu doświadczenia i rozumienia siebie i swojego miejsca w świecie. Rozszerzona o nieludzkie, biologiczne komponenty reaktywność organizmu umożliwia doznanie obcego, innego sposobu istnienia i poznawania, ale zarazem prowokuje do nowego sposobu rozumienia podmiotowości. Normatywna, oparta na antropologicznych uniwersaliach podmiotowość ustępuje tu miejsca koncepcji człowieka, który znajduje się w stanie nieustającej, ateleologicznej transgresji. Zatem doświadczenie Innego to także doświadczenie innego siebie, odczucie własnej zmienności, niestabilności, rozpoznanie faktu, że płynność i podatność na swobodne mutacje „niezredukowane do wzorów czy standardów, kodów czy informacji”16 stanowi zasadniczą cechę wszelkiego, także ludzkiego życia. Rozszerzenie organizmu człowieka o komponenty zwierzęce pozwala na doświadczenie rzeczywistości z nowej perspektywy, ale zarazem ukazuje inność w nas samych. Wyjście poza antropocentryzm to przede wszystkim doświadczenie odmiennych sposobów „stwarzania świata” i zasadniczej hybrydyczności właściwej naszemu gatunkowi autopoezy. Projekt francuskich artystów wpisuje się tym samym wprost w proponowaną przez Wolfe’a posthumanistyczną perspektywę człowieczeństwa wolną od „ontologicznie zamkniętych domen świadomości, rozumu, refleksyjności” i jednocześnie postulującą radykalną otwartość na odmienność tak zewnętrzną, jak i wewnętrzną. „Zmusza nas ona” – jak napisał twórca animal studies – „do przemyślenia przyjmowanych za pewnik form ludzkiego doświadczenia, włączając normalne sposoby postrzegania i odczuwania siebie przez Homo sapiens, przez ich rekontekstualizację względem pełnego sensorium innych istot żywych i ich specyficznych autopoietycznych sposobów »wyłaniania świata« – sposobów, które, zważywszy, że sami jesteśmy ludzkimi zwierzętami, stanowią część historii ewolucyjnej i należą do behawioralnego i psychologicznego repertuaru człowieka”17. Ostatni fragment przywołanego cytatu otwiera jeszcze jedną perspektywę interpretacyjną Que Le Cheval Vive En Moi. Poddane transgatunkowemu eksperymentowi ciało ujawnia przedludzkie pokłady ewolucyjnego dziedzictwa i jawi się jako nośnik pamięci o różnorodności gatunkowej. Przekroczenie humanistycznego antropocentryzmu dokonuje się tutaj w dwóch kierunkach: ku przyszłości, generując pytania o możliwości transgatunkowej komunikacji; oraz ku przeszłości, ewokując wewnętrzną hybrydyczność ludzkiego organizmu. Obie perspektywy czasowe są połączone w przyjmowanej przez artystów w pierwotnej wersji projektu koncepcji ciała jako symbolicznego miejsca schronienia, a może także ocalenia gatunków zagrożonych wyginięciem. W ten sposób realizacja Francuzów włącza się w debatę nad odpowiedzialnością i etyką badań naukowych, akcentując potrzebę empatycznego otwarcia na wszelkie formy życia. 15 16 17
T. Mokoena (2011), May The Horse Live In Me. Extreme modern-day horse whispering, www.dontpaniconline.com/magazine/arts/may-the-horse-live-in-me (dostęp: 24.11.2011 r.). R.L. Rutsky, Mutation, History, and Fantasy in the Posthuman, „Subject Matters: A Journal of Communication and the Self” 2007, t. 3, nr 2, t. 4, nr 1, s. 111. C. Wolfe, What is Posthumanism?, University of Minnesota Press, Minneapolis 2010, s. 25.
170
Twórczość Paula Vanouse’a jako przykład krytycznego bio artu Powszechne przeświadczenie o przełomowym znaczeniu odkryć w naukach biologicznych dla egzystencji poszczególnych jednostek, ludzkości i życia na Ziemi w ogóle jest odwrotnie proporcjonalne do rzetelnej wiedzy o badanych zjawiskach, stosowanych metodach naukowego poznania i osiąganych rezultatach. W tym kontekście wyjątkowego znaczenia nabiera sztuka, która nie tyle zagląda przez uchylone drzwi do pracowni naukowych, ale przenosi je w przestrzeń publiczną. Upublicznianie, ujawnianie, odkrywanie, tłumaczenie tajników współczesnej biologii i biotechnologii są istotnymi cechami dzisiejszego bio artu, który często „zmierza do »odtajnienia« procedur laboratoryjnych, technik biotechnologicznych i biomedycznych po to, byśmy mogli uzyskać lepszą świadomość procesów, w których uczestniczymy choćby tylko pośrednio”18. Osiągnięcie tak określonych celów jest związane z procesami rematerializacji i performatywizacji, które wyznaczają kierunki rozwoju sztuki biologicznej w ostatniej dekadzie19. Z jednej strony, artyści coraz częściej tworzą dzieła sztuki z materiałów organicznych (wetwork), z drugiej, procesy przeprowadzane za pomocą określonych technologii są prezentowane bezpośrednio w galeriach, dokonują się na oczach widzów, a często przy ich aktywnym udziale. Dzieło sztuki – jak zauważył Paul Vanouse – nabiera w takich warunkach cech kulturowo uwarunkowanego eksperymentu naukowego, galeria zaś staje się w pełni funkcjonalnym laboratorium naukowo-artystycznym20. Nie chodzi tu jednak o proste przeniesienie naukowych procedur w kontekst sztuki, lecz o wytworzenie niejednoznacznego, prowokującego, zaskakującego doświadczenia przez połączenie w jednym działaniu dwóch, powszechnie uważanych za nieprzystawalne dziedzin ludzkiej aktywności. Powstający w ten sposób dysonans poznawczy sprawia, że „schwytany w sieć przeciwstawnych prawd widz jest zmuszony do ponownej oceny jego/jej własnych uprzedzeń i przekonań”21. Prace amerykańskiego artysty stanowią przykład sztuki biologicznej, w której nauka i biotechnologie są zarazem przedmiotem, jak i narzędziem artystycznej eksploracji rozumianej jako „krytyczna teoria kulturowa”22. Sam Vanouse używał w odniesieniu do przyjętej strategii artystycznej określenia fikcja operacyjna (operational fiction)23. Wykorzystując biotechnologie jako medium dyskursu artystycznego, przenosząc procedury badawcze w „niesterylne”, pozalaboratoryjne warunki instytucji sztuki, zderzając etos nauki z szeroko rozumianym kontekstem kulturowym nie tylko odsłonił przed stosunkowo szeroką publicznością tajniki współczesnej biologii, ale przede wszystkim zadał pytanie o jej status i znaczenie dla ponowoczesnego społeczeństwa w nowym milenium. Instalacje, których zasadniczym elementem są prawdziwe, wykonywane w zgodzie z rygorem naukowej metodologii procedury analizy i wizualizacji sekwencji DNA, spełniają rzecz jasna funkcje edukacyjne, jednak przede wszyst18 19 20 21 22 23
M. Bakke (2009), Bio art – sztuka in vivo i in vitro, www.obieg.pl/teksty/4408 (dostęp: 12.11.2011 r.). J. Hauser, Bio Art – Taxonomy of an Etyological Monster [w:] Hybrid. Living in Paradox. Ars Electronica 2005, red. G. Stocker, Ch. Schöpf, Hatje Cantz Varlag, Linz 2005, s. 182–187. P. Vanouse, The Relative Velocity Inscription Device [w:] Signs of Life: Bio Art and Beyond, red. E. Kac, MIT Press, Cambridge, Massachusetts, Londyn 2007, s. 282. P. Vanouse (2006), Contemplating „Meart – The Semi Living Artist”, www.paulvanouse.com/MEART_PV_essay.pdf (dostęp: 21.11.2011 r.). R. Kluszczyński, W stronę (odnowionej) trzeciej kultury [w:] Digitalne dotknięcia, red. P. Zawojski, Stowarzyszenie Make it Fun Production, Szczecin 2010, s. 11. P. Vanouse, The Relative..., s. 278.
171
kim są formą metaforycznego komentarza skłaniającego do krytycznego namysłu. Eksperyment naukowy staje się fragmentem szerszej struktury dyskursywnej, w której równie ważną rolę odgrywają inne, już niezwiązane bezpośrednio z nauką, elementy nawiązujące doń, ustanawiające nieoczywiste i nieoczekiwane porównania, sytuujące go w nowych kontekstach i otwierające nowe perspektywy interpretacyjne. Biotechnologie tracą neutralny i zorientowany na czystą funkcjonalność charakter, przyjmując formę mediów kulturowych, sama zaś nauka jawi się jako niezwykle znacząca, kształtująca świat i definiująca wyobrażenia na temat życia, lecz w żadnym razie nie wolna od zewnętrznych uwarunkowań dziedzina współczesnej kultury. Mit tożsamości genetycznej a kulturowy status obrazów DNA Osiągnięcia genetyki przyczyniły się do bezprecedensowego przewrotu w kryminalistyce, pozwalając na niespotykaną wcześniej skuteczność w zwalczaniu przestępczości. Dają możliwość bezbłędnej identyfikacji podejrzanych osób i określenia ich udziału w przestępstwie. Gromadzone w bazach danych informacje genetyczne pełnią funkcję prewencyjną, ułatwiając określenie kręgu jednostek „niebezpiecznych”. Przyczyniają się jednocześnie do bardziej efektywnego monitorowania wszelkiej maści zbrodniarzy, przestępców, terrorystów czy po prostu osób w jakikolwiek sposób przejawiających skłonności do zachowań niezgodnych z prawem i porządkiem społecznym. Pełnią także funkcję identyfikacyjną w innych, mniej spektakularnych dziedzinach – ustalenie ojcostwa czy dowiedzenie zdrady stały się wprost banalnie proste. Każdego można bowiem przyłapać na kłamstwie za pomocą śladów genetycznych, których, w przeciwieństwie choćby do odcisków palców, nikt nie jest w stanie zatrzeć. Medialny obraz genetycznej inwigilacji upowszechnił przeświadczenie, że specyficzna konfiguracja kodu DNA jest ostatecznym i niepodważalnym dowodem indywidualnej tożsamości. Jedną z głównych aren, na których rozgrywa się spektakl genetycznej transparentności, stały się sale sądowe. Choć trudno negować wpływ genetyki na zmiany procedur dochodzeniowych i sądowych właśnie w tych obszarach najwyraźniej ujawnia się wpływ niewiedzy i generowanej przez ignorancję niepełnej, fałszywej wizji genetyki. Zrealizowany w 2011 roku przez Vanouse’a projekt Suspect Inversion Center odnosi się do jednej z najsłynniejszych spraw sądowych, w której badanie próbek DNA odgrywało fundamentalną rolę. W 1994 roku amerykańską opinią publiczną wstrząsnęła sprawa słynnego futbolisty Orenthala J. Simpsona, który został oskarżony o zamordowanie dwóch osób, w tym swej byłej żony, a następnie uniewinniony od przedstawionych mu zarzutów ze względu na niewystarczalność dowodów zbrodni. Jednym z koronnych argumentów oskarżycieli były próbki DNA, jednak, jak podkreślił Vanouse w opisie projektu, sprawa Simpsona „była pierwszym przypadkiem, gdy zespół obrońców wykazał się wystarczającą wiedzą w zakresie procedur naukowych, by obalić argumenty prokuratury”. Suspect Inversion Center to performance, w trakcie którego na oczach widzów Vanouse i jego współpracownicy wytworzyli dokładną replikę obrazu DNA wykorzystanego w trakcie historycznego procesu. Identyczny obraz sekwencji kodu powstaje w czasie rzeczywistym w trakcie performance’u, jednak materiał genetyczny służący do przeprowadzenia eksperymentu pochodzi od artysty. Próbki, pobrane od dwóch różnych osób, poddane określonej obróbce, zyskują identyczną reprezentację wizualną. W ten sposób zostaje zakwestionowany dogmat o nieomylności genetycznej identyfikacji. Istotą problemu nie jest jednak zgodność genetycznego oryginału z jego wizualizacją, lecz wpływ procedur naukowych na uzyskiwane rezultaty. Tworzony w zgodzie z regułami nauki
172
obraz DNA zyskuje status artefaktu, sam proces zaś upodabnia się do, jakże dalekiego od naukowej transparentności i obiektywności, kopiowania dzieł sztuki. Prowadząc analogię między analizą i wizualizacją kodu DNA a falsyfikacją oryginalnych dzieł sztuki, Vanouse ujawnił, z jednej strony, nieprawomocność przeświadczenia o niepodważalnym charakterze identyfikacji genetycznej, z drugiej zaś, zwrócił uwagę na fakt, że obraz DNA posiada status „kulturowo konstruowanego artefaktu”24. Jest produktem określonych procedur, które z kolei okazują się zależne od warunków technicznych, ale też, a może przede wszystkim, mogą podlegać intencjonalnym manipulacjom. Zastosowanie określonych procedur zależy bowiem od decyzji prowadzących badanie laborantów, a zatem podlega ekonomicznym, etycznym, ideologicznym, politycznym uwarunkowaniom. Performance SCI oraz inne wcześniejsze realizacje Latent Figure Protocol (2007–2009) i Occular Revision (2010), w których Vanouse manifestował kreacyjny potencjał wizualizacji sekwencji DNA w procesie elektroforezy żelowej, ukazują siłę kulturowego oddziaływania mitu obiektywności nauki. Przede wszystkim wywołują pytania o rolę medialnych reprezentacji DNA w kształtowaniu fałszywych przekonań o genetyce i możliwościach aplikacji osiągnięć biologii molekularnej w codziennym, pozalaboratoryjnym życiu. Jeśli znajomość procedur naukowych pozwala wytworzyć właściwie dowolny obraz z tych samych próbek genetycznych w trakcie działań artystycznych, to oczywisty staje się fakt, że preparowanie obrazu DNA może być niezwykle silnym narzędziem do manipulacji opinią publiczną. Znajomość procedur naukowych okazuje się w tym momencie jedną z podstawowych kompetencji aktywnych uczestników życia publicznego i pozwala na świadomy opór wobec intencjonalnie bądź bezwiednie upowszechnianych wypaczonych wyobrażeń i przesądów. Przywołane prace Vanouse’a odsłaniają błąd, a może mistyfikację, na których jest zbudowane porównania kodu genetycznego do linii papilarnych i metafora „portretu genetycznego”. Genetyka odsłania nowe, wcześniej nieznane aspekty życia i zmusza do rewizji wielu od wieków ustalonych wyobrażeń na jego temat, jednak z pewnością nie stanowi ostatecznego rozwiązania problemu jednostkowej identyfikacji. Naturalizacja błędnych przekonań w duchu naukowej obiektywności nie zmienia faktu, że „natura nie zaopatrzyła naszych ciał w DNA jako osobistego systemu identyfikacji”25. Postbiologiczna iluzja cybernetyczna Z przeświadczeniem o możliwości jednostkowej identyfikacji na podstawie kodu DNA jest powiązane rozumienie genotypu jako podstawy wszelkich form życia, znajdujące wyraz w metaforze „kodu życia”. Nie sposób negować znaczenia kodu genetycznego dla ukształtowania konkretnych form organicznych, jednak zbyt silne akcentowanie jego roli jako czynnika determinującego rozwój osobniczy to forma naukowego redukcjonizmu, którego efektem jest wyobrażenie sprowadzające życie do poziomu abstrakcyjnego kodu. Rozumienie takie kodu DNA – jak zauważył Oron Catts26 – jest totalnym uproszczeniem i prowadzi do niezrozumienia złożoności procesów życiowych oraz ograniczenia różnorodności biologicznej. Faworyzując genotyp względem fenotypu, można stracić z pola widzenia złożony system uwarunkowań wewnętrznych i zewnętrznych, biologicznych, ale też 24 25 26
P. Vanouse, Discovering Nature Apparently: Analogy, DNA Imaging and the Latent Figure Protocol [w:] Tactical Biopolitics. Art, Activism, and Technoscience, red. da C. Beatriz, P. Kavita, MIT Press, Cambridge, Massachusetts, Londyn 2008, s. 177. Tamże, s. 181. O. Catts, I. Zurr, The Ethics of Experiential Engagement with the Manipulation of Life [w:] Tactical Biopolitics. Art, Activism, and Technoscience, red. da C. Beatriz, P. Kavita, MIT Press, Cambridge, Massachusetts, Londyn 2008.
173
społecznych i kulturowych. W tej perspektywie fenomen życia jest opisywany w oderwaniu od konkretu, od materii, od ciała, dzięki czemu uzyskuje się sterylnie czystą, lecz zarazem cząstkową i z zasady fałszywą wizję życia. Krytyka geocentryzmu stanowi jeden z zasadniczych rysów wszystkich prac Vanouse’a, jednak szczególne miejsce zajmuje w Ocular Revision. Także w tej realizacji jest wykorzystany proces sekwencjonowania DNA. W tym przypadku jednak krytyczny potencjał pracy wynika nie tylko z niestandardowego podejścia do wizualizacji kodu, ale także z konstrukcji urządzeń służących elektroforezie. Normalnie wykorzystywane w laboratoriach, a także w innych realizacjach artysty, podłużne, prostokątne naczynie, zostało zastąpione w tej pracy zaprojektowanym przezeń okrągłym pojemnikiem z polaryzacją od wnętrza na zewnątrz okręgu. Dzięki takiej konstrukcji próbki DNA rozchodzą się w żelu promieniście od centrum do brzegów naczynia. Konstrukcja aparatu i jego funkcjonalność mają w tym przypadku charakter dyskursywny. Rezygnując ze standardowych narzędzi wizualizacji DNA, artysta wskazuje, że ich wybór ma bezpośredni wpływ na konstruowany obraz, a tym samym kształtuje powszechne wyobrażenie na temat specyfiki kodu genetycznego. Uzyskiwany tradycyjną metodą wizualizacji obraz sekwencji kodu jest odzwierciedleniem kształtu naczynia, ale jednocześnie złożone z szeregu podobnej wielkości elementów prostokątne smugi DNA są utrzymane w cybernetycznym kodzie wizualnym. Ich modularna struktura, bazowanie na kątach prostych i dwuwymiarowej siatce koordynatów x, y przypomina „schodkową” formę wizualną sygnału cyfrowego, samo zaś powstawanie obrazu kojarzy się wprost z paskiem postępu obrazującym stan zaawansowania wykonywanych przez komputer operacji liczbowych. Zdaniem Vanouse’a stosowanie w genetyce takiej formy wizualizacji DNA wynika z przyjęcia wzorców cybernetycznej wyobraźni wizualnej. Forma zewnętrznej reprezentacji DNA nie pozostaje bez wpływu na sposób rozumienia i interpretacji procesów molekularnych. Przeciwnie, wizualna forma sekwencji kodu ułatwia przeniesienie znaczeń przypisywanych sztucznym kodom cyfrowym na biologiczny kod organizmów żywych, co skutkuje ich nieuprawnionym utożsamieniem. Powstająca w ten sposób hybryda informatycznej genetyki jest źródłem geocentrycznego redukcjonizmu i determinizmu. Gdy gen zostaje utożsamiony z bitem informacji, znika jego materialność, powiązanie z ciałem i związek z żyjącym organizmem. Wizja rządzącego życiem od wnętrza, jednak niezależnego od zewnętrznej formy życia kodu, jest zdaniem amerykańskiego artysty bezpośrednią realizacją cybernetycznej idei odcieleśnionej inteligencji. „DNA rozumiane jako kod realizuje cybernetyczną fantazję, w której nieskończona różnorodność wilgotnych organizmów jest w ostatecznym rozrachunku zastąpiona łatwo mierzalnym kodem genetycznym, z założenia sprawującym całkowitą kontrolę nad ciałem”27. Cybernetyczne ujęcie kodu genetycznego prowadzi do paradoksalnej sytuacji, w której fenomen życia jest interpretowany przez pryzmat determinującej je nieżywej substancji, którą postrzega się już nie w kategoriach biologicznych, lecz abstrakcyjnych, matematycznych. Przedstawione wyżej przesunięcie znaczeniowe prowadzi do przeświadczenia, że kod genetyczny podlega takim samym prawom jak kod cyfrowy. Przeświadczenie to znajduje odzwierciedlenie w powszechnym mniemaniu, że podstawowym obszarem badawczym biologii są manipulacje genetyczne. Geny są traktowane natomiast jako samoistne, izolowane cząsteczki, które układają się niczym klocki w łatwo rekonfigurowalne 27
P. Vanouse (2011), Dualisms: Complexity vs. Reductionism alongside Biology and Postbiology, http://isea2011.sabanciuniv.edu/paper/vida-new-discourses-tropes-andmodes-art-and-artificial-life-research (dostęp: 21.11.2011 r.).
174
struktury. „Wysuszenie” DNA, oderwanie go od wilgotnego kontekstu materii stanowi fundament zwrotu paradygmatycznego prowadzącego od biologii do ery postbiologicznej. Postbiologiczna wersja nauk o życiu zakłada prymat „hiperracjonalnej obserwacji statystycznej”28, w której żyjąca materia jawi się jako wtórna i zależna od nieorganicznego, czystego kodu, istota życia zaś jest lokowana poza żyjącymi organizmami. Ocular Revision przedstawił alternatywny sposób rozumienia genetyki i samego kodu. Okrągłe naczynie do elektroforezy pozwala na uzyskanie zupełnie innych obrazów DNA, które są bliższe formom organicznym. W ten sposób na poziomie ikonicznym zostaje przekroczony wpływ cybernetycznego obrazowania i ideologii. Równocześnie, sekwencje kodu układają się w kształty przypominające kontynenty, co można traktować jako symboliczną rematerializację kodu i próbę przywrócenia właściwych proporcji między wnętrzem i zewnętrzem, salą mikro i makro, poziomem molekularnym i planetarnym, genotypem i fenotypem. Determinizm genetyczny i postbiologiczna genomika Żyjemy w dobie mutacji genetycznych. Biologia molekularna jest w stanie wyselekcjonować i określić podstawowe elementy kodu genetycznego odpowiedzialne za określone właściwości i predyspozycje organizmów. Fakt ten przynosi z jednej strony nadzieje na rozwiązanie licznych problemów społecznych – likwidację chorób, głodu, regulację i racjonalizację przyrostu naturalnego – ale równocześnie budzi obawy związane z trudnymi do przewidzenia efektami manipulacji genetycznych zarówno dla poszczególnych jednostek, gatunków, jak i globalnego ekosystemu. Także znajomość ludzkiego genomu rodzi pokusę „poprawiania natury” opartą na postbiologicznej selekcji genetycznej. Sprowadzenie złożonych organizmów do poziomu molekularnego wiąże się wprost z rozumieniem kodu genetycznego jako kodu życia, programu, który steruje życiem i realizuje się w egzystencji poszczególnych jednostek. O ile jednak kreowanie nowego, lepszego człowieka na mocy manipulacji genetycznych należy do niedalekiej prawdopodobnie, ale jednak przyszłości, o tyle dyskryminacja genetyczna stała się już jednym z rysów współczesnego społeczeństwa. Jak zauważył Lori B. Andrews, ani brak uregulowań prawnych, ani jasne wnioski płynące z badań naukowych przeczące istnieniu twardego determinizmu genetycznego nie zmieniają faktu, że genotyp stał się już narzędziem dyskryminacji w rękach firm ubezpieczeniowych i pracodawców29. Wyścig genów już trwa i choć łatwiej w nim o przegranych, gdyż ocean genotypu skupia się przede wszystkim na określeniu negatywnych aspektów kodu, to jego efekty są trudne do przecenienia, a konsekwencje dość proste do przewidzenia. „Wielu krytyków zwraca uwagę, iż wraz z przeniesieniem zainteresowania genetyki z ciała na badania nad mikrociałem; z form na ich podstawę w postaci kodu; wzrasta zagrożenie subtelnymi formami naukowego rasizmu, takimi jak rasizm genetyczny czy molekularny”30. Kwestie te podjął Vanouse przede wszystkim w interaktywnej instalacji Relative Velocity Inscription Device (2002), która jest kontekstualną analizą genomiki i leżących u jej podstaw przesądów genetycznych. Centralnym elementem instalacji jest traktowany dosłownie wyścig genów, który odbywa się w przypominającym podłużnym kształtem lekkoatletyczną bieżnię czy basen olimpijski
28 29 30
Tamże. L.B. Andrews, Art as a Public Policy Medium [w:] Signs of Life: Bio Art and Beyond, red. E. Kac, MIT Press, Cambridge, Massachusetts, Londyn 2007, s. 130. P. Vanouse, The Relative..., s. 277.
175
naczyniu do elektroforezy żelowej. Umieszczone zostały w nim próbki kodu genetycznego odpowiadające za kolor skóry czworga przedstawicieli dwurasowego klanu Vanouse – rodziców Paula, jego siostry i jego samego. Wyścig był transmitowany w czasie niemal rzeczywistym (do uchwycenia powolnego ruchu próbek została wykorzystana rejestracja poklatkowa) i prezentowany na ekranie w postaci opracowanej komputerowo wizualizacji. Wybór uczestników wyścigu nie był przypadkowy. Rodzina Vanouse pochodzi z Jamajki, której silnie zróżnicowana rasowo populacja stała się u progu minionego stulecia przedmiotem pseudonaukowych badań prowadzonych przez ojca założyciela amerykańskiej eugeniki Charlesa B. Davenporta. Zbierająca plon jego poszukiwań książka Race Crossing in Jamaica (1929), opublikowana na początku Zagłady, stanowi istotny element instalacji. Obfitująca w urągające naukowej obiektywności obserwacje, bogata w absurdalne wnioski, pełna uprzedzeń rasowych wyznacza trudny do przekroczenia poziom naukowego rasizmu. Stanowi swoiste memento, ostrzega przed zbytnią ufnością i bezkrytyczną akceptacją naturalizowanych przez wykorzystanie naukowego stylu, a jednak skrajnie dalekich od obiektywności, fałszywych czy wręcz intencjonalnie zniekształcających rzeczywistość rewelacji. Zbudowania na fundamencie metod biometrycznych eugenika nie była niczym innym niż próbą naukowego dowiedzenia nienaukowej tezy o wyższości białej rasy, dostarczając jednocześnie argumentów na rzecz stosowanej inżynierii rasowej. Stanowiła prawdopodobnie najbardziej jaskrawy przykład wykorzystania nauki w służbie ideologicznej. Dostarczyła energii dla zbiorowej histerii i szaleństwa zakończonego tragedią Holokaustu. Zestawienie książki Davenporta z ujętym w ironiczną klamrę sportowej rywalizacji procesem elektroforezy DNA nie oznacza zrównania biologii molekularnej z eugeniką. Porównanie to prowadzi jednak do pytań o wpływ dyskursu naukowego na świadomość społeczną, a przede wszystkim na rozwój i propagacje stereotypów i przesądów. Potraktowanie naukowej procedury sekwencjonowania DNA jako wyścigu genów jest tak samo absurdalnym zabiegiem, jak dowodzenie wyższości białej rasy na podstawie pomiarów czaszki, a jednak, jak się okazuje, posiada równie potężną siłę oddziaływania na wyobraźnię społeczną. Wynik wyścigu nie zależy od siły genów, lecz zastosowanej procedury, gdyż tempo przemieszczania się próbki w żelu jest wypadkową jej wielkości i nie ma nic wspólnego z jakością sekwencji. Większa próbka porusza się szybciej, kluczową zaś rolę w rozstrzygnięciu rywalizacji odgrywa przygotowujący próbki laborant. Ukazując bezpośrednie uzależnienie osiąganych rezultatów od procedur badawczych i specyfiki stosowanych narzędzi, Vanouse kładł akcent na konieczność uwzględnienia czynnika ludzkiego. Nauka zawsze powstaje w kontekście indywidualnego światopoglądu, przekonań i intencji badaczy, i jednocześnie stanowi wypadkową społecznych wyobrażeń, pragnień i lęków. Działająca na wyobraźnię metafora „kodu życia” nie tylko faworyzuje genotyp względem fenotypu, ale przede wszystkim stwarza mentalne warunki do zaistnienia postbiologicznego, nieodwołującego się już do cielesnych cech zewnętrznych, lecz opartego na wewnętrznej, molekularnej determinacji rasizmu. Perspektywa rasizmu genetycznego jest tym groźniejsza, im „kod życia” pozostaje poza granicami naturalnej percepcji, a co za tym idzie, jego dostrzeżenie, badanie, analiza i wyciągane na ich podstawie wnioski są ufundowane na wykorzystaniu „protez percepcyjnych” w postaci procedur badawczych i biotechnologii. Tym samym profil genetyczny jednostki nie jest po prostu odkrywany, lecz konstruowany w oderwaniu od konkretnej manifestacji cielesnej i warunków środowiskowych. Wyabstrahowana z organizmu mapa genetyczna może funkcjonować jako swego rodzaju fatum obciążające jednostkę i całe grupy społeczne. Bałwochwal-
176
czy stosunek do ustaleń genetyki w połączeniu z naturalizacją procedur naukowych tworzą natomiast warunki wyjątkowo sprzyjające rozwojowi wszelkich form dyskryminacji genetycznej. W RVID Vanouse analizował proces „molekularyzacji stereotypów rasowych”31, jednak podobne mechanizmy mogą dotyczyć właściwie wszelkich aspektów życia widzianego przez pryzmat odcieleśnionego kodu. Rozważania dotyczące genetycznego determinizmu prowadzą wprost do kwestii mapowania genetycznego. Mapa DNA, jak każda mapa, nie jest prostym odwzorowaniem przestrzeni, lecz w równym stopniu zostaje zapisany w niej sposób postrzegania rzeczywistości, charakterystyczny dla jej twórcy, i specyfika wykorzystywanych narzędzi kartograficznych. Molekularna kartografia niesie jednak ze sobą jeszcze jedno, znacznie poważniejsze zagrożenie. Opisywany za pomocą mapy obszar nie istnieje bowiem w percepcji poza mapą. Przedmiot obserwowany w doświadczeniu percepcyjnym jest dostępny tylko w postaci swej medialnej reprezentacji. Eliminując łatwe do wyobrażenia teorie spiskowe, nie sposób jednak pominąć zagrożeń wynikających z pokusy manipulacji. Szczególnie w przypadku genetyki linia dzieląca wiarygodne odwzorowanie od kreatywnej manipulacji jest bardzo cienka. Problem ten w bezpośredni sposób ukazuje realizacja Ocular Revision, w której analiza DNA jest wykorzystana jako narzędzie do stworzenia mapy kontynentów, sekwencje kodu zaś stają się materiałem i medium sztuki na podobieństwo farb, kamienia czy światła. Praca ta prowokuje do postawienia wielu pytań ujawniających niestabilny status poznawczy genetyki we współczesnej kulturze. Na ile obserwowana wizualizacja sekwencji DNA jest wiarygodnym przedstawieniem genetycznej specyfiki analizowanej próbki? Jak można dowieść, że dany obraz przedstawia sekwencję DNA wyabstrahowaną z konkretnej próbki? Czy istnieją, a jeśli tak, to na jakich zasadach są oparte, procedury zapewniające zgodność próbki i obrazu? W jaki sposób można sprawdzić wiarygodność percepcyjnej reprezentacji kodu? Jakie znaczenie w kształtowaniu powszechnego wyobrażenia o genetyce ma specyfika wykorzystywanych narzędzi? Ostania kwestia nabiera szczególnego znaczenia z chwilą, uświadomienia sobie, że biologia molekularna nie tylko pozwala na określenie mapy genetycznej człowieka, lecz zarazem mapa genetyczna może w znacznym stopniu determinować człowieka. Nie jest neutralnym odwzorowaniem rzeczywistości, lecz niemożliwym do uniknięcia ideologicznym jej przetworzeniem. Biotechnologie jako medium kulturowe Zarówno sposób wykorzystania biologii i biotechnologii w kontekście sztuki, jak i podejmowane przez amerykańskiego artystę tematy pozwalają sytuować jego twórczość w nurcie taktycznego bio artu32. Jego prace dotyczą relacji pomiędzy sztuką, nauką i polityką, opierają się na przekraczaniu tych granic i zarazem są zorientowane na krytyczny transdyscyplinarny dialog. Pokazują, w jaki sposób dziedziny te przenikają się, wpływają na siebie i wzajemnie inspirują, ale zarazem ujawniają ideologiczne i ekonomiczne uwarunkowania, które funkcjonują ponad czy raczej poniżej wytyczonych granic pomiędzy poszczególnymi dziedzinami. Sztuka biologiczna przyjmuje postać krytycznego dyskursu i aktywistycznej interwencji dotykającej podstaw biopolityki i biowładzy w nowym Wieku Biologii. Prowadzona przez Vanouse’a taktyczna gra z biopolityką zakłada krytyczne nastawienie do wiedzy tak specjalistycznej, zamkniętej w homogenicznych strukturach tradycyjnego systemu akademickiego, jak i będącej jej ekstensją i zarazem 31 32
Tamże. Zob. Tactical Biopolitics. Art, Activism, and Technoscience, red. da C. Beatriz, P. Kavita, MIT Press, Cambridge, Massachusetts, Londyn 2008.
177
zdeformowanym odbiciem powszechnej świadomości zmian w obszarze biologii i sposobów funkcjonowania biotechnologii. Jest to jednocześnie taktyka kosmopolityczna i taktyka bioremediacji33 oparta na upowszechnianiu wiedzy eksperckiej, translacji dyskursu naukowego, ale przede wszystkim wielostronnej dyskusji. Ponieważ tylko otwarcie na odmienne punkty widzenia oraz transdyscyplinarną, wielowymiarową interpretację ukazującą problemy stawiane przez współczesne nauki o życiu w szerokim społeczno-kulturowym kontekście daje szansę na oswojenie i oswojenie się z biologiczną rewolucją. Realizacje pochodzącego z Jamajki artysty łączą w sobie krytyczny komentarz na temat nauki z silnym zaangażowaniem społecznym. Tym samym spełniają wszystkie wymienione przez Lori B Andrews warunki sztuki rozumianej jako medium dobra publicznego (public policy medium)34. Upowszechniają wiedzę o biologii i biotechnologiach, jednocześnie wskazując na konsekwencje wynikające z możliwości manipulacji życiem na poziomie molekularnym. Pokazują szanse, jakie oferują biotechnologie, ale i ich ograniczenia, stawiając zarazem etyczne pytania dotyczące tak samych procedur, jak i społecznych i kulturowych implikacji ich szerokiego stosowania. Pozwalają lepiej zrozumieć rozwój genetyki i szerzej nauk o życiu, a jednocześnie ukazują kulturowy wymiar tego, co „mokre”, naturalne, biologiczne. Stanowią last but not least, formę racjonalnego, opartego na rzetelnej wiedzy, a nie na przesądach, oporu wobec medialnego szumu oscylującego pomiędzy biegunami fascynacji i przerażenia nową Erą Biologii. Oporu wobec procesów naturalizacji i mitologizacji naukowej wiedzy, działających jednocześnie i paradoksalnie wzajemnie wspierających się w produkcji fałszywych przekonań o biologii i biotechnologiach. Oporu, który realizuje się przez zmuszenie nauki, by porzucając „ezoteryczny kod komunikacyjny »przemówiła« w szerszym języku kultury”35.
33 34 35
J. Dumit, Foreword: Biological Feedback [w:] Tactical Biopolitics. Art, Activism, and Technoscience, red. da C. Beatriz, P. Kavita, MIT Press, Cambridge, Massachusetts, Londyn 2008, s. 11–13. Andrews L.B., Art as a Public..., s. 126. P. Vanouse, Discovering Nature..., s. 178.
178
Teorie mindware
Wokół interfejsów
Sztuka mediów
Mindware: technologie umysłu i umysł technologiczny w perspektywie antropologii mediów i badań nad komunikacją Anna Maj
181
Any invention or technology is an extesion or self-amputation Marshall McLuhan1
Szumy i zombie przed telewizorem W 1968 roku Umberto Eco napisał niezwykły szkic o odkryciu Ameryki przez Krzysztofa Kolumba2. W zasadzie można by go nazwać historycznym opowiadaniem science fiction, odkrycie nowego kontynentu w 1492 roku jest w nim bowiem relacjonowane dzięki transmisji telewizyjnej w czasie rzeczywistym. Transmisja odbywa się przy zachowaniu wszelkich reguł, a także wad i zalet medium telewizji lat 60. XX w. Jest to zatem opowiastka na temat tego, jak wyglądałoby odkrycie Ameryki, gdyby telewizja istniała w czasach Kolumba. Dodać trzeba, że Eco umiejętnie bawi się, przywołując postaci ze świata nauki, filozofii, religii i sztuki, które występują w roli telewizyjnych ekspertów komentujących zdarzenie. Jak wyglądałaby historia kultury, gdyby poprzednie epoki dysponowały medium masowym? Czy moglibyśmy mówić o Odrodzeniu, wielkich ideach religijnych i prądach filozoficznych, jakie znamy? Czy nauka i sztuka mogłyby funkcjonować i wydawać owoce w postaci tego, co znamy dziś jako klasyczne dzieła sztuki i założycielskie dla naszej cywilizacji teksty naukowe z różnych dyscyplin? A może właśnie już prasa, radio i telewizja – jeszcze przed mediami cyfrowymi – stwarzają coś, co można by nazwać mindware, a co sprawia, że te wszystkie dzieła i myśli nie mogłyby nigdy powstać i zaistnieć w zbiorowej świadomości, gdyby media masowe były rozpowszechnione w XV i XVI wieku? A może jest inaczej – każda epoka i każde medium wytwarza swoisty mindware? Wkraczamy tu oczywiście na teren rozważań prowadzonych nieco wcześniej przez Marshalla McLuhana. W pewnym sensie, choć Eco krytykował McLuhana, pisząc swój tekst o odkryciu Ameryki, złożył hołd myśli autora z Toronto. Odkrycie Ameryki odwołuje się zarówno do transmisji lądowania na Księżycu, którą z zapartym tchem śledziła znaczna część ludzkości (w tym i McLuhan), do transmisji wydarzeń sportowych, jak i do książki Zrozumieć media kanadyjskiego myśliciela3. Esej włoskiego semiologa jest jednocześnie niezwykle elokwentną opowieścią o wielu poziomach braku komunikacji w medium komunikacyjnym: szumach komunikacyjnych związanych z problemami technicznymi, wynikającymi z transmisji sygnału radiowego i telewizyjnego oraz braku możliwości porozumienia się za pomocą medium masowego nastawionego na hiperkomunikację oznaczającą w istocie antykomunikację, a także o głupocie prezenterów, uniemożliwiającej zrozumienie przekazu zapraszanych do studia specjalistów, oraz o ideologicznej roli telewizji. Chociaż pierwszy aspekt ma charakter czysto techniczny, wywołuje chaos komunikacyjny na poziomie międzyludzkim4.Z drugiej strony, brak porozumienia zależy nie tylko od samej technologii, ale i od charakterystyki retoryki medium – pośpiechu, nastawienia na emocje i atrakcyjność
1 2 3 4
M. McLuhan, Understanding Media. The Extensions of Man, Massachusetts 1994, s. 45. U. Eco, Odkrycie Ameryki [w:] Diariusz najmniejszy, przeł. A. Szymanowski, Kraków 1995, s. 122–130. M. McLuhan, Understanding… Mam tu na myśli zwłaszcza jego propozycję rozumienia bezpośredniego związku pomiędzy różnymi mediami i kulturą, określaną jako deterministyczną koncepcję mediów (1964). Sprawa momentami jest jeszcze bardziej skomplikowana, gdyż to sami eksperci mogą dostarczać przekazu w formie szumu – jak profesor Leonardo da Vinci, który w czasie transmisji telewizyjnej mówi wspak, co wymaga specjalnego dekodowania i translacji na kod zrozumiały dla interaktorów i odbiorców oraz powoduje opóźnienie sygnału komunikacyjnego o kilka sekund. Por. Eco, Odkrycie…, s. 124.
183
wizualną, nie na wartościowy (w sensie komunikacyjnym, społecznym czy etycznym) i logiczny dyskurs. To ten aspekt, który dwie dekady później Neil Postman, pisząc o telewizji jako współczesnej Huxleyowskiej somie, nazwał nastawieniem na wiarygodność, która zastępuje rzeczywistość i która ma więcej wspólnego z dobrym wyglądem niż z prawdą5. Antykomunikacyjność można zatem potraktować jako swoisty paradygmat komunikacyjny (a może mindware) telewizji – charakterystyczny sposób budowania emocjonalnej świadomości odbiorcy poprzez przekonujący obraz i uwiarygodniający go komentarz. Tym samym nawet przebłyski rzeczywistości, które nieoczekiwanie może ujawnić transmisja, w rodzaju uwagi majtka Parodiego w eseju Eco, stanowią tak niezwykłą rzadkość, że trudno mówić tu o ich sile anihilowania wszechmocy hipnotycznego działania medium. Eco wydaje się zdawać sobie z tego sprawę, wpadka słowna majtka („O rany, admirale, są nagie!”) zostaje szybko i zgrabnie zatarta słowami admirała Kolumba („To mały krok dla majtka, ale ogromny dla Jego Królewskiej Katolickiej Mości”) i natarczywym komentarzem prezentera telewizyjnego, który jednocześnie wygłusza dźwięk transmitowany w czasie rzeczywistym jako niosący potencjalnie niebezpieczne treści. Wydaje się, że uwagi McLuhana i Eco na temat siły oddziaływania telewizji najlepiej podsumowuje Derrick de Kerckhove, badacz młodszego pokolenia szkoły z Toronto. W jego ujęciu (zgodnym oczywiście z tradycją McLuhanowską) działanie telewizji w zasadzie polega na oddziaływaniu somatycznym, nie semiotycznym (a przynajmniej: nie tylko i nie przede wszystkim semiotycznym). Ciała odbiorców poddawane są bodźcom na poziomie czysto fizjologicznym: obrazy są wyświetlane na siatkówce oka odbiorcy i wywołują rodzaj hipnotycznego transu, którego głównym przekazem jest transmisja zbiorowej świadomości6. Nowe technologie wpływają na użytkowników w nieco inny sposób niż mass media na swoich odbiorców. Oczywiście, jeśli wziąć pod uwagę kontekst teorii komunikacji, nawet siła wpływu telewizji bywała kwestionowana. Ostatecznie, większość współczesnych badaczy nie zgodziłaby się na model proponowany przez deterministów technologicznych jako odnoszący się w pewnym zakresie do zweryfikowanej teorii silnego oddziaływania mediów masowych na odbiorców. Teorie z lat 60. XX w. i późniejsze, kwestionują jednoznaczność i bezwzględność wpływu mediów (w sensie odbioru treści). Derrick de Kerckhove, kontynuując i rozwijając podejście McLuhana, mówi jednak o czymś innym – nie chodzi mu o pasywność odbiorcy i nieumiejętność analizy treści o charakterze ideologicznym czy wręcz propagandowym. Nie kwestionuje semiotycznych kompetencji telewidzów. Jego analiza dotyczy psychosomatycznego wpływu medium, czyli tego poziomu, który zazwyczaj pomijany jest przez socjologów i komunikologów w badaniach. De Kerckhove, pisząc o powłoce, czy raczej skórze kultury, mówi o bezpośrednim i dyskretnym wpływie mass mediów na aparat percepcyjny i mózg. Dyskretnym w sensie, w jakim dziś mówi się o nowych technologiach, wszędobylskich, masowo zbierających i analizujących dane, a jednocześnie – niezauważanych, gdyż ukrytych przed użytkownikiem i jego świadomością. Rodzaj wpływu, o jakim pisze de Kerckhove, dotyczy w równej mierze mass mediów epoki przedcyfrowej i cyfrowej, jak i mediów elektronicznych. Dzisiejsze miasta, nasycone reklamami i migającymi ekranami oraz trudnymi do zauważenia tagami, znacznikami RFID, kodami kreskowymi i matrycowymi, a także 5 6
N. Postman, Zabawić się na śmierć, przeł. L. Niedzielski, Warszawa 2002, s. 149. D. de Kerckhove, The Skin of Culture: Investigating the New Electronic Reality, red. Ch. Dewdney, Toronto 1995 [polskie tłumaczenie: D. de Kerckhove, Powłoka kultury. Odkrywanie nowej elektronicznej rzeczywistości, przeł. W. Sikorski, P. Nowakowski, Warszawa 1996]. Por. McLuhan, Understanding…, s. 308–337.
184
generowanymi oddolnie vlepkami, napisami na murach i informacjami, tworzą swoisty organizm, którego bogactwo informacyjne jest postrzegane jako naturalne środowisko współczesnego człowieka. Tymczasem, jak daleki środowisku naturalnemu jest to ekosystem, ujawnić mogą problemy natury okulistycznej, coraz częstsze wśród przedstawicieli rozwiniętych społeczeństw i masowo powiązane z życiem przed komputerem. Dopiero gdy światło nas razi, dostrzegamy, że trudno przemieszczać się w przestrzeni miejskiej, nie będąc wystawionym na promienie świetlne z licznych ekranów i monitorów, które praktycznie są wszędzie7. Oczywiście, jest to ten rodzaj bodźców, które są dostrzegalne – a przecież trzeba pamiętać o technologiach, które wpływają na nasze ciała w sposób bardziej subtelny i podświadomy. Psychotechnologie i media w podróży Jedną z technologii, na które warto zwrócić szczególną uwagę w kontekście rozważań nad mindware, jest bez wątpienia GPS (Global Positioning System). Interesującego, choć specyficznego przykładu na istnienie związku pomiędzy posiadaniem i wykorzystaniem technologii a powstawaniem świadomości jednostkowej i społecznej dostarcza analiza wpływu technologii GPS na życie codzienne i pamięć kulturową Inuitów z Igloolik w regionie Nunavut w Kanadzie. Badania nad wpływem technologii geolokalizacyjnej na tę kulturę prowadzili antropologowie Claudio Aporta i Eric Higgs8. Studium terenowe z badań zamieścili w „Current Anthropology”, wysoko cenionym tradycyjnym czasopiśmie antropologicznym, na łamach którego problemy związane z nowymi technologiami pojawiają się sporadycznie. Nie dziwi to wobec faktu, że antropologia dosyć późno zaczęła traktować media jako artefakty kultury. Zainteresowanie badaczy wpływem technologii na orientację i pamięć kulturową Inuitów wzbudziły relacje o częstych wypadkach młodych myśliwych, którzy mimo posiadania skuterów śnieżnych i odbiorników GPS gubili się i zamarzali w trakcie wypraw na polowanie, nie potrafiąc wrócić do rodzinnej wioski. Technologia, zwłaszcza w ekstremalnych zimowych warunkach, bywa zawodna – odbiornik GPS zamarza lub kończy się w nim bateria; skuter śnieżny jest nieprzydatny, gdy skończy się paliwo lub maszyna ulegnie usterce. Sytuacje tego typu zazwyczaj kończą się więc tragicznie. Przedstawiony stan rzeczy wiąże się bezpośrednio z erozją więzi międzypokoleniowych i odejściem od tradycyjnych oralnych metod edukacji dzieci, które wiązały się z nieustannym treningiem obserwacji przyrody, a zwłaszcza terenu i pogody9. W ciągu ostatnich dekad nowe technologie stawały się stopniowo dostępne dla Inuitów, a jednocześnie część tradycji i norm społecznych zanikała. Dotyczy to również narracji geograficzno-przyrodniczej oraz przekazywania umiejętności orientacji w terenie i specyficznych metod survivalowych przydatnych podczas długich wypraw myśliwskich. Kultura oralna Inuitów, oparta dotąd na wielokrotnie powtarzanym ustnym przekazie wielopokoleniowej wiedzy i doświadczeń, staje się również ofiarą nowych technologii. Zapominając pozornie jedynie myśliwskie opowieści 7
8 9
Interesujące w tym kontekście wydają się eksperymenty artystyczne Toshio Iwai, który zajmuje się między innymi obukierunkową translacją obrazu i dźwięku, również w przestrzeni miejskiej. Por. T. Iwai, Beyond Media, Connecting Senses [w:] Simplicity – the art of complexity. Ars Electronica 2005, red. G. Stocker, Ch. Schöpf , Linz 2005, s. 124–131. C. Aporta, E. Higgs, Satellite Culture. Global Positioning Systems, Inuit Wayfinding, and the Need for a New Account of Technology, „Current Anthropology” 2005, vol. 46, nr 5, s. 729–753. Szerzej o tym piszę w książce: A. Maj, Media w podróży, Katowice 2010, s. 182–186.
185
o tym, gdzie należy szukać karibu czy innych zwierząt, Inuici tracą bowiem jednocześnie część swojej tożsamości – wiedza o przestrzeni przekazywana była dotąd poprzez narracje o charakterze mitycznym, konstytutywnym dla tej kultury. Jednocześnie tradycyjny system edukacji pielęgnował więzi wspólnotowe, rozumienie przyrody i wiedzę o przetrwaniu oraz wyznaczał określone i sprawdzone sposoby radzenia sobie w trudnym środowisku – opowieści słyszane i powtarzane przez Inuitów przez całe życie, a zatem od pierwszego do ostatniego polowania, były bowiem rodzajem mnemotechnik, którym towarzyszyło wykonywanie określonych czynności, istotnych dla przeżycia. Narracje wiązały się również z przebywaniem określonych tras, wyznaczonych niegdyś przez przodków, były w pewnym sensie grą semiotyczną, polegającą na powtarzaniu określonych słów i odnajdywaniu odpowiadających im znaków w przestrzeni. Inuici wykształcili przy tym strategie, które pozwalały orientować się w terenie także w bardzo trudnych warunkach, na przykład w czasie burzy śnieżnej przy bardzo obniżonej widoczności. Młodzi myśliwi, którzy zginęli z powodu braku paliwa w skuterze czy awarii baterii w GPS, nie znali tych metod. Nie wiedzieli, że należy przeczekać burzę w jamie śnieżnej lub iść, zataczając coraz mniejsze kręgi, aż do momentu, w którym dotrze się do znanej linii brzegowej czy innego odniesienia topograficznego. Pokolenie to, wraz z utratą niezawodnej, choć subiektywnej, wiedzy tradycyjnej, nie zyskało w technologii obiektywnej wiedzy równie pewnej. Wyprawa z GPS w kieszeni dawała także mylne poczucie bezpieczeństwa – rozluźnienie mentalne wywołane posiadaniem technologii stawało się przyczyną tragedii. Analogiczną sytuację można zaobserwować, gdy jedzie się trasą w nieznanym mieście, słuchając komend płynących z nawigacji GPS i automatycznie wykonując polecenia. Jeżeli trasa jest skomplikowana, trudno później bez GPS zorientować się w terenie – prowadząc samochód, kierowca patrzy na inne znaki niż topograficzne czy architektoniczne. Skupia się na komendach i znakach drogowych – pamięta na przykład, że mijał kolejne światła na skrzyżowaniach i że skręcał, lecz nie jest to jednoznaczne z pamiętaniem poszczególnych miejsc skrętów. Podobnie posiadający GPS młodzi Inuici, patrząc na skały i inne wizualne znaki na swej drodze, nie mnemonizowali ich, gdyż polegali na opcji zapisu śladu, którą włączali w odbiorniku. Obecność technologii podświadomie wywołuje w człowieku poczucie zwolnienia z odpowiedzialności: to nie my źle odczytujemy mapę, to GPS się myli. Jest to zjawisko ciekawe, tym bardziej że początki cywilnego wykorzystania GPS wiążą się ściśle z niedokładnością danych, związaną z długotrwałym modyfikowaniem sygnału przez wojsko amerykańskie. Dopiero wydana 1 maja 2000 roku przez prezydenta Billa Clintona decyzja o uwolnieniu sygnału GPS do użytku cywilnego sprawiła, że sytuacja uległa zmianie i pomiary wykonywane przy użyciu tej technologii stały się miarodajne (tj. uzyskały przybliżenie do 10 metrów). Można pokusić się o stwierdzenie, że w rzeczywistości GPS – obok Internetu oraz interfejsu typu brainwave – jest jedną z najważniejszych technologii umysłu udostępnionych przez wojsko ludzkości. Uwolnienie sygnału sprawiło, że powstał rynek konsumencki związany z nawigacją GPS. To właśnie po 2000 roku GPS zyskał popularność również w Igloolik. Warto dodać, że po początkowym zainteresowaniu i następującej po niej fali krytyki technologii związanej z opisanymi wypadkami, dziś zastosowanie GPS wśród Inuitów staje się bardziej przemyślane. Wiąże się to również z badaniami Aporty i Higgsa, a także działaniami edukacyjnymi lokalnej społeczności i Canadian Rangers, które zmierzają do łączenia tradycyjnej wiedzy przyrodniczej i wielowiekowych strategii orientacyjnych z nową technologią.
186
Sztuka GPS i tagowanie przestrzeni Wraz z wykorzystaniem technologii GPS do geolokalizacji pojawiły się też innego rodzaju zastosowania medium10. Analityczne poszukiwania możliwości tkwiących w GPS rozpoczęli też naukowcy reprezentujący różne dyscypliny, firmy oferujące wiele typów usług (np. geolokalizację kluczy, samochodu czy abonamentowy system wzywający pomoc medyczną lub mechanika po wykryciu kolizji drogowej) oraz agencje reklamowe; poszukiwania objęły również nowomedialnie ukierunkowane środowiska artystyczne i informatyczne. Jednym z pierwszych projektów artystycznych eksplorujących możliwości GPS był projekt Ester Polak Amsterdam Real Time, zrealizowany dla Waag Society w 2002 roku11. Polak rozdała urządzenia grupie użytkowników, których zadaniem było rejestrowanie śladów w trakcie kilkutygodniowego projektu. Każdy rysował zatem mapę swych codziennych ścieżek, powtarzając podróże do pracy, domu i innych znaczących miejsc albo też swoją wymyśloną specjalnie na tę okazję drogę. Celem projektu było zbudowanie dynamicznej mapy miasta, ukazującej przepływ ludzi w czasie i przestrzeni, gorące punkty styku, w których spotyka się społeczność mieszkańców Amsterdamu i turystów, ważne trasy przelotowe oraz strefy porannych i wieczornych podróży. Animacja utworzona z danych zebranych od wszystkich uczestników jest obrazem przestrzeni miejskiej i zmienności wykorzystania wspólnej przestrzeni. Poprzez zebranie pojedynczych mikrokartografii artystka zbudowała też symboliczną wspólnotową mapę, pokazała obszary, w których przebiega komunikacja lokalnej wspólnoty, jak i te obszary, które są jej pozbawione, nie mają wartości w sensie budowania tożsamości grupowej. Późniejszy o kilka lat projekt artystki realizowany wraz z inną Łotyszką, Ievą Auziną, Milk Project, poszerza rejon poszukiwań Esther Polak, jednocześnie utrzymując obszar zainteresowań przestrzenią, wspólnotą i tożsamością12. Tym razem artystki skupiły się na paradziennikarskich działaniach wideo, pozwalając, by dane z GPS uzupełniały obrazy filmowe przedstawiające wywiady z ludźmi zaangażowanymi w produkcję i transport wyrobów mleczarskich w Europie. O ile w pierwszym opisanym projekcie istotny był proces wspólnego budowania mapy miasta, o tyle w projekcie z 2005 roku ukazano wspólnotę europejskich mleczarzy, producentów serów i osób zaangażowanych w cały przemysł, który koncentruje się na przewozie produktów pomiędzy krajami UE. Warto wspomnieć tu również innego ciekawego artystę nowomedialnego, którego praca The Lowlands jest jak dotąd jednym z bardziej złożonych koncepcyjnie projektów artystycznych, wykorzystujących logi z GPS – jest nim Vaibhav Bhawsar, twórca z Bangalore13. Bhawsar używa technologii GPS do zmapowania przestrzeni slumsowej dzielnicy Yelahanka miasta Bangalore, indyjskiej Doliny Krzemowej, centrum uznawanego za symbol nowoczesnych i bogatych 10
11 12 13
Świadomie nie używam tu terminu media lokacyjne, który upowszechnił się w polskiej humanistyce, gdyż jest on wynikiem błędnego tłumaczenia terminu angielskiego, locative media, co należałoby poprawnie tłumaczyć jako „media lokalizacyjne”. Lokacja rozumiana jest w języku polskim przede wszystkim jako założenie miasta, choć może też oznaczać technikę zbierania danych o położeniu, kierunku i prędkości przemieszczania się obiektów lub sposób orientowania się zwierząt (jednak w tym rozumieniu występuje w złożeniach, np. radiolokacja, echolokacja). Amsterdam Real Time/Dagboek In Sporen, URL: <www.waag.org/realtime> (dostęp: 06.01.2012 r.). I. Auzina, E. Polak: Milk Project, por. URL: <www.aec.at/en/festival2005/programm/ project> (dostęp: 06.01.2012 r.). V. Bhawsar, The Lowlands Project, URL: <www.recombine.net> (dostęp: 06.01.2012 r.).
187
Indii. Obraz Yelahanki nie ma jednak wymiaru propagandowego, ujawnia raczej to, co władze miasta chciałyby ukryć – biedę, egzystencję na krawędzi społeczeństwa, zamieszkiwanie ruin, oddolne odzyskiwanie surowców wtórnych, a nawet toksyczne (za sprawą wielu obiektów przemysłu chemicznego zlokalizowanego w pobliżu dzielnicy) powietrze. Bhawsar ukazuje inne oblicze Bangalore również poprzez symboliczne zmapowanie przestrzeni modlitwy, wyznaczając axis mundi dzięki GPS. Co istotne, projekt powstawał we współpracy z mieszkańcami Yelahanki, którzy w ramach warsztatów prowadzonych przez Bhawsara dostali urządzenia GPS i mogli sami opisać swoją przestrzeń życiową. Dzięki nim powstał obraz dzielnicy-widma, którą władze najchętniej zrównałyby z ziemią. Bhawsar właśnie tak pojmuje tytułowe lowlands, jako tę przestrzeń, która w sensie geograficznym i społecznym oznacza niziny14. Technologia ma jednak wymiar upodmiotawiający, w tym sensie, że staje się narzędziem narracyjnym w rękach ludzi z marginesu życia społecznego. Paradoksalnie, docierający z przestrzeni kosmicznej sygnał GPS wyznacza na nowo axis mundi, podając jego konkretne koordynaty geograficzne. Z całą pewnością w sensie antropologicznym jest to nowa sytuacja. Praca Bhawsara, umieszczona w globalnej Sieci internetowej, nabiera jeszcze większego znaczenia – narracje marginalizowanej społeczności zyskują niezwykły potencjał i trafiają do odbiorców na całym świecie. Ślady ruchu toksycznego powietrza (zbadanego za pomocą zamocowania GPS do balonów) czy codzienne ścieżki człowieka trudniącego się odzyskiem surowców wtórnych stają się ważne, przestają być milcząco pomijane przez dyskurs społeczny nowoczesnych Indii. Można w działaniach Bhawsara widzieć zatem zarówno działania artystyczne, aktywistyczne, społeczne, jak i antropologiczne. Z całą pewnością wykorzystuje on świadomie narzędzie, jakim jest GPS, również w sposób subwersywny wobec systemu. Sztuka GPS jest oczywiście nurtem bardzo zróżnicowanym i z całą pewnością zasługuje na odrębną uwagę15. Myśląc o GPS jako technologii tworzącej swoisty mindware, należy również przytoczyć choćby pokrótce dwa inne korespondujące ze sobą projekty artystyczne. Pierwszy z nich to The Biggest Drawing in the World, Erica Nordenankara. Praca przedstawia portret artysty, narysowany na mapie świata dzięki odbiornikowi GPS umieszczonemu w paczce, którą za pomocą DHL artysta wysłał w okołoziemską, dosyć skomplikowaną podróż (trasa tej podróży jest podstawą rysunku GPS). Druga praca to The World is My Canvas artysty o pseudonimie Stavros. Składa się z serwisu internetowego, performance’u, serii filmów wideo i happeningu, w którym każdy internauta mógł wziąć udział, tworząc własne dzieło GPS i udostępniając je w serwisie artysty. Obydwa te projekty podobnie traktują technologię GPS (przyrównując ją do nowomedialnej formy malarstwa), obydwa również są rodzajem gry z odbiorcą, a także przykładem wysublimowanej akcji marketingowej. Pierwsza praca jest w zasadzie nowatorską reklamą DHL, druga – równie interesującą reklamą telefonu Nokia N82 (z funkcją GPS). Obie są zatem rodzajem mistyfikacji – w pierwszej elementem fałszywie przedstawionym jako rzeczywisty jest dzieło (w rzeczywistości paczka z GPS nigdy nie została wysłana), w drugiej – sam artysta (Stavros w rzeczywistości jest doskonałym aktorem wynajętym przez agencję reklamową Farfar)16. Dlaczego zatem warto wspominać o tych przede wszystkim 14 15 16
V. Bhawsar, The Lowlands Project Document, s. 4, URL: <http://host275.ipowerweb. com/~priyabha/recombine/lowlands/document/DIPdOC_screen.pdf> (dostęp: 06.01.2012 r.). Bliżej analizuję ten problem [w:] A. Maj, Media w podróży…, s. 172–194. Szersze omówienie wymienionych tu prac przedstawiam w innym miejscu. Por.
188
reklamowych i jedynie paraartystycznych projektach w kontekście sztuki lokalizacyjnej? Istotny wydaje się fakt wykorzystania w kampaniach reklamowych technologii GPS – świadczy on między innymi o tym, że technologia ta została już „udomowiona”, spopularyzowała się na tyle, że można się nią bawić w przekazie komercyjnym, nie tylko artystycznym. Stała się też na tyle ważnym i rozpoznawalnym elementem codziennego doświadczenia użytkownika mediów (i wyznacza pewne ramy dla aparatu poznawczego), że można na niej oprzeć przekaz reklamowy bez ryzyka. Należy jednak dodać, że obecny tu element gry i manipulacji odwołuje się wyłącznie do aktywnego użytkownika, amatora-profesjonalisty korzystającego z technologii i biorącego udział w kulturze partycypacji. Szukanie i gubienie się na nowo Swoista gra ze świadomym użytkownikiem mediów staje się istotnym elementem praktyk artystów nowomedialnych. Ich prace stanowią też często doskonały, choć przewrotny, komentarz do zachodzących przemian komunikacyjnych, poznawczych i percepcyjnych. Jedną z takich prac z całą pewnością jest aplikacja Serendipitor, która odwołuje się do aplikacji typu Foursquare, Layar, Every Trail, Food Spotting, Track My Maps czy prekursorskiego w tym zestawieniu holenderskiego Bliina, a zatem do aplikacji geolokalizacyjnych (location-based), czasem, jak Layar, wykorzystujących również technologię rzeczywistości rozszerzonej (AR), umożliwiających wyszukanie informacji przestrzennych oraz promujących social networking prowadzony w czasie rzeczywistym i w określonej przestrzeni, czyli oferujących nieustanną aktualizację statusu i pozycji użytkownika dzięki wykorzystaniu technologii context-awareness. Serendipitor w tym kontekście ujawnia się jednak jako przykład subwersywnego wykorzystania technologii17. O ile bowiem Foursquare umożliwia korzystanie z mapy-przewodnika społecznościowego wiodącego po interesujących miejscach, Track My Maps pozwala na stworzenie i współdzielenie trasy określonej podróży, Layar daje szansę na odnalezienie poszukiwanych miejsc w realnej przestrzeni dzięki wirtualnym tagom i wykorzystaniu kamery w telefonie, Food Spotting służy współdzieleniu tagów kulinarnych i odnajdywaniu dobrych restauracji w nieznanym mieście, a Bliin tworzy trasę podróży i odnajduje innych uczestników społeczności – czyli wszystkie w pewnym sensie realizują możliwości zawarte w technologii geolokalizacji – o tyle Serendipitor działa wręcz przeciwnie, wykorzystując sygnał GPS do tego, by pomóc użytkownikowi się zgubić. Pozornie aplikacja Serendipitor daje możliwość znalezienia trasy do wybranego miejsca, droga wyświetla się na mapie po podaniu adresu docelowego, jak w przypadku każdej innej aplikacji tego typu. Po drodze użytkownik otrzymuje jednak specyficzne komunikaty, za którymi może podążać, a które z odnajdywaniem drogi nie mają nic wspólnego. Pozwalają natomiast w sposób nieprzewidywalny cieszyć się wędrówką, odkrywać nieoczekiwane elementy, prowadzić grę z przestrzenią i jej mieszkańcami, wreszcie stworzyć specyficzny album fotograficzny, który odzwierciedli doświadczenie dziwnej podróży. Mimo prymarnej rozrywkowej funkcji jest to w pewnym sensie również aplikacja pozwalająca zastanowić się nad sensem podróży, która w dzisiejszych warunkach technologicznych zostaje sprowadzona (głównie za pośrednictwem GPS
17
A. Maj, Wikifikacja wiedzy, Travel 2.0 i globalhood [w:] Kody McLuhana. Topografia nowych mediów, red. A. Maj, M. Derda-Nowakowski z udziałem D. de Kerckhove, Katowice 2009, s. 143–168. Za takie wykorzystanie można też jednak uznać artystyczne eksperymenty Vaibhava Bhawsara (zwłaszcza opisywanie niewygodnych dla władzy przestrzeni biedy, wykluczenia i zatrutego powietrza).
189
i telefonii komórkowej) do przebywania trasy, docierania do celu, odtwarzania zapisu śladu zgodnie z propozycjami odbiornika, przy czym podróżny staje się jedynie rodzajem automatu, wykonującego polecenia. Podróż rozumiana jako przebycie drogi traci swe znaczenie. Serendipitor pozwala je odnaleźć w zaskakujących zwrotach, absurdalnych komendach maszyny. Podróż znów zaczyna być przechadzaniem się, włóczęgą bez wyraźnego celu, prowadzoną dla przyjemności grą poznawczą z przestrzenią, spacerem flâneura czy wagabundy, gotowego się zagubić i zapatrzyć. Serendipitor używa jednak również metody, którą można by nazwać aleatoryczną – metody znanej z awangardowych poczynań kompozytorów XX wieku. Polecenia pojawiające się na ekranie pełnią tu jednocześnie funkcję logów z podróży. Wybierane są losowo z pewnej puli, przewidzianej przez projektanta aplikacji, Marka Sheparda (który wprawdzie dostał za nią nagrodę na festiwalu Ars Electronica 201118, jednak oferuje swoje dzieło jak typową aplikację w App Store). Można wśród nich znaleźć takie, które każą użytkownikowi iść śladem przechodnia w zielonej koszuli lub przelatującego gołębia, podążać w kierunku hałasu, żółtego znaku czy na zachód tak długo, aż minie most lub spotka człowieka w kapeluszu, zrobić zdjęcie kałuży albo drzwiom pod wskazanym numerem budynku. To zupełnie inne poznawanie miasta, w które włączyć trzeba też interakcję z miejscowymi – zgodnie z poleceniami Serendipitora trzeba bowiem czasem kogoś śledzić, spytać o coś (ale nie o drogę) lub poprosić, by dał się sfotografować. Aleatoryczność drogi (pewnej wolności w ramach zaprogramowanych działań użytkownika), nieprzewidywalność obserwacji, wreszcie zaproszenie do absurdalnej interakcji stanowią tu o wartości przebytej podróży, odpowiadając nazwie aplikacji, która sugeruje narzędzie do czynienia przypadkowych szczęśliwych odkryć. Warto tu zauważyć pewną ewolucję wykorzystania medium: początkowo używano GPS jako narzędzia naukowego (w biologii, antropologii czy geografii), a nawet wręcz matematycznego (w inżynierii czy budownictwie). Z czasem (wraz z rozwojem interfejsów) zauważono potencjał artystyczny GPS i zaczęto traktować go jako narzędzie społeczne (pozwalające na geotagowanie i pewną aktywność twórczą użytkowników, zabawę technologią). Ostatecznie, gdy system uzyskał już status technologii dobrze rozpoznawalnej i wszechobecnej, pojawiły się działania marketingowe, wykorzystujące potencjał atrakcyjności GPS i uzupełniające mapy o przekazy informacyjno-reklamowe (oczywiście przy jednoczesnym wykorzystaniu tendencji typu Web 2.0, czyli skoncentrowaniu się na geotagowaniu i przyciągających do aplikacji sile sieci społecznych). Działania te spowodowały pewien ruch w kierunku artystycznego ukazywania znaczenia GPS jako urządzenia, które może być oznaką nieposłuszeństwa wobec systemu, czyli wykorzystania jej wbrew pierwotnemu przeznaczeniu. Będąc zatem narzędziem geolokalizacyjnym (a jednocześnie pozwalającym na śledzenie użytkownika), GPS stał się także narzędziem antygeolokalizacyjnym (antysystemowym). Tym samym można powiedzieć, że ujawniony został potencjał kontrolny systemu geolokalizacji, jak i konieczność obrony obywateli przed kolejnym wcieleniem Wielkiego Brata. Serendipitor nie jest jednak sam w sobie pracą krytykującą system, raczej go przewidującą i w pewnej mierze kontestującą, choć jednocześnie 18
M. Shepard, Sentient City Survival Kit [w:] CyberArts2011. Prix Ars Electronica, red. H. Leopoldseder, Ch. Schöpf, G. Stocker, Linz 2011, s. 192–193. Aplikacja Serendipitor jest częścią pracy Sentient City Survival Kit, zrealizowanej przez Marka Sheparda w czasie pobytu rezydencyjnego w V2_Institut for the Unstable Media; Por. też: Sentient City Survival Kit, URL: <http://survival.sentientcity.net> (dostęp: 06.01.2012 r.).
190
przygotowującą użytkowników do udziału w życiu „odczuwającego” miasta, zwłaszcza gdy wziąć pod uwagę całość pracy Sentient City Survival Kit (zestaw tworzą: Serendipitor – aplikacja GPS, parasol chroniący przed kamerami CCTV, bielizna zawierająca kody RFID, wibrujące, gdy użytkownik mija nadajniki pobierające dane i kubek podłączający się nielegalnie do sieci tworzonych ad hoc)19. Jest to zatem zestaw niezbędny wobec rozpowszechniającego się paradygmatu ubicomp. Konstruowanie cyberogrodu – miasto jako przestrzeń nowomedialna Zastanawiając się nad problematyką mindware, trzeba wspomnieć koniecznie również o roli „tradycyjnego interfejsu” do przestrzeni, jaki wykształcił się w procesie rozwoju kultury, a także o jego nowych kontekstach. Mowa o mieście i współczesnym projektowaniu przestrzeni publicznej oraz interakcji w tej przestrzeni. W dyskursie architektonicznym i nowomedialnym skoncentrowanym na redefiniowaniu przestrzeni miejskiej istotną rolę odgrywa dziś wspomniany paradygmat ubicomp (ubiquitous computing). Chodzi tu o nasycenie przestrzeni współczesnego miasta, a także wszystkich środków transportu i poszczególnych budynków nowymi technologiami, głównie sieciami komunikacyjnymi i informatycznymi oraz sensorami różnego typu, tagami i inteligentnymi elementami systemów oraz równie inteligentnymi przedmiotami podłączonymi do Sieci i komunikującymi się ze sobą poza świadomością użytkowników. W paradygmacie tym równie ważną rolę odgrywają zatem zarówno wszechobecne komputery, telefony komórkowe, Internet oraz różne sieci teleinformatyczne, panoptyczny system CCTV, rozpowszechnione kody RFID, kody matrycowe QR czy innego rodzaju znaczniki, jak i reagujące na zmiany pogody, zanieczyszczenie powietrza czy obecność ludzi w określonym pomieszczeniu inteligentne budynki i ich otoczenie; inteligentne floty pojazdów (komunikujące się w razie kradzieży z policją, po kolizji z pogotowiem, a w przypadku awarii z warsztatem samochodowym); a także wearable computing – „technologie ubieralne”, wyposażone w czujniki reagujące na stan zdrowia użytkowników oraz komunikujące reklamodawcom dane o nawykach konsumenckich właściciela; i w końcu – skanowanie biometryczne (połączone z dostępem do konta bankowego) oraz chipy (implanty teleinformatyczne), w które niedługo wyposażone będą nie tylko (jak dziś) psy czy więźniowie, ale i – dla wygody – przeciętni obywatele, a zwłaszcza ich dzieci – ze względów bezpieczeństwa20. Część z wymienionych technologii już jest rozpowszechniona, część dopiero jest w drodze na masowy rynek konsumencki, jednak jej powodzenie jest już dziś zagwarantowane pozytywnymi wynikami badań i testów oraz pierwszymi eksperymentami. Tak rozumiana przestrzeń miejska staje się zatem podwójnie gęsta – w sensie architektonicznym i informatycznym. W innym kontekście pisałam już niegdyś o przenikaniu się przestrzeni wirtualnej i realnej oraz o modelu ubiquitous 19 20
Por. również Sentient City. Ubiquitous Computing, Architecture, and the Future of Urban Space, red. M. Shepard, Massachusetts 2011. Uwagi o chipowaniu odnoszę do rozmów z Kevinem Warwickiem i jego wykładów gościnnych w czasie 2. Konferencji Dni Nowych Mediów: Oblicza cyborga, seminarium: Problemy robotyki i cyborgizacji – medycyna, technika i kultura, Uniwersytet Śląski w Katowicach – Akademia Sztuk Pięknych – Górnośląski Festiwal Ars Cameralis, Katowice 22–24 listopada 2010. Por. też mój artykuł na temat cyborgizacji i komunikacji postbiologicznej: Paratekstualność, cyborgizacja komunikacji i telefonia mobilna. Konteksty antropologii mediów [w:] Parateksty kina i nowych mediów. O dawnych i współczesnych sposobach doświadczania audiowizualności, red. A. Gwóźdź, Kraków 2010, s. 533–552.
191
networked society – społeczeństwa usieciowionego czy też stale i wszędzie podłączonego do Sieci, paradygmacie trafnie nakreślonym przez inżynierów i futurologów z japońskiego koncernu telekomunikacyjnego DoCoMo21. Z dzisiejszej perspektywy można powiedzieć, że projekty sieciowe, takie jak Semapedia czy DenCity w rzeczywistości zapowiadały nadejście i globalną popularność aplikacji telefonicznych typu Layar, wykorzystujących przestrzeń rozszerzoną (AR) i funkcję kamery w smartfonach. Nie można bowiem zapominać, że powodzenie miasta ubicomp, które umownie nazwać można też cyberogrodem22, leży w rękach całego społeczeństwa, które ochoczo korzysta z nowych technologii, zwłaszcza telekomunikacyjnych. Trzeba jednak pamiętać, że o ile projekt cyberogrodu ma swoje znaczące pozytywne strony (takie jak funkcjonalność, łatwy dostęp do informacji, likwidacja barier komunikacyjnych dla osób niepełnosprawnych, przeciwdziałanie marginalizacji społecznej i wykluczeniu cyfrowemu, upowszechnienie wiedzy, ułatwienia edukacyjne i komunikacyjne, potencjalny dostęp do władzy), istnieją również nie do końca dziś rozpoznane efekty uboczne, choćby natury zdrowotnej, psychologicznej czy społecznej. Chodzi tu zarówno o różne choroby związane z działaniem technologii, promieniowaniem, wystawianiem określonych organów na stałe działanie podwyższonej temperatury czy kontakt organizmu z materiałami toksycznymi, zawartymi w komputerach i telefonach, jak i o kwestie natury zdrowia psychicznego: począwszy od różnych form internetoholizmu – uzależnienia od określonych gier komputerowych (World of Warcraft) czy światów wirtualnych (Second Life), czatów i komunikatorów, przez uzależnienie od wyszukiwarki (Google), moblogowania (Twitter), sieci społecznościowych (Facebook), po problemy natury percepcyjnej, trudności z analizą danych, koncentracją uwagi i różne zachowania aspołeczne. Trzeba jednak dodać, że paradygmat ubicomp jest dziś nieuchronny, warto zatem skupić się na tych aspektach, w jakich stwarza on nowe możliwości użytkownikom technologii i daje nowe sposoby dostępu do danych, wiedzy i władzy mieszkańcom cyberogrodu. Everyware: architektoniczny mindware i projektowanie interakcji Interesująco brzmią w kontekście paradygmatu ubicomp uwagi samych architektów, którzy zajmują się również działaniami nowomedialnymi, jak Usman Haque, twórca między innymi prac wykorzystujących (i wizualizujących dzięki sensorom ukrytym w balonach wypełnionych helem) pole elektromagnetyczne wygenerowane w trakcie masowego aktu komunikacji publiczności za pomocą telefonów komórkowych (Sky Ear, Burble)23. Haque tworzy również instalacje interaktywne i prowadzi eksperymenty badawcze w zakresie połączenia architektury i nowych mediów oraz oddziaływania na różne kanały percepcji (w tym dotyk, słuch czy węch). Nie stroni też od interwencji artystycznych angażujących publiczność w działania nowomedialne (za pomocą telefonów, pilotów telewizyjnych czy głosu). Z całą pewnością jest też jednym z architektów młodego 21 22
23
Por. A. Maj, Keitai – marginalia jako sens komunikacji, „Kultura Współczesna” 2008, nr 4 (58), s. 117–127. W nawiązaniu do projektu Cyberogród, platformy nowomedialnej projektu Katowice – Miasto Ogrodów, którą współtworzyłam w latach 2010–2011 dla miasta Katowice wraz z Michałem Derdą-Nowakowskim w ramach starań o tytuł Europejskiej Stolicy Kultury 2016 dla katowickiego Biura ESK 2016. Haque Design + Research [serwis internetowy studia Usmana Haque]: Burble, URL: <www.haque.co.uk/burble.php>, Sky Ear, URL: <www.haque.co.uk/skyear.php> (dostęp: 14.01.2012 r.).
192
pokolenia, który świadomie buduje podstawy zorientowanej nowomedialnie i opensource’owo metarefleksji w architekturze. Ubicomp w ujęciu projektanta generuje zupełnie inny styl pracy i myślenia o przestrzeni. Rozwiązania systemowe, takie jak komputery ubieralne (wearable computing), łączność bezprzewodowa (mobile connectivity), przetwarzanie zorientowane na kontekst (contextual awareness) i RFID dokonały transformacji zarówno sposobów wykorzystania, jak i projektowania przestrzeni. Systemy te są bezpośrednio przestrzenne: powstają w rezultacie ruchu i działań ludzi w przestrzeni i sugerują model projektowania przestrzeni (a szerzej architektury), który wykorzystuje systemy interakcji do kreowania ramy przestrzennej egzystencji. Terytorium takiej architektury jest dwuznaczne, ponieważ ludzie sami interpretują, przejmują, projektują i ponownie korzystają ze swoich własnych ram logiki. Taka architektura nie istnieje bez ludzi, którzy ją zamieszkują, zajmują, postrzegają, wchodzą z nią w interakcje i dialog. Mieszkańcy „projektują” swoje własne środowisko. […] Gdy ludzie stają się architektami własnych przestrzeni (poprzez ich używanie), słowo „architektura” przestaje być rzeczownikiem: w zamian staje się czasownikiem. Taka architektura jest eksplicytnie dynamiczna, a zmiana ta otwiera bogactwo poetycznych możliwości dla projektantów przestrzeni24.
Haque stwierdza zatem niezwykle głęboką przemianę, jaka zachodzi w samej istocie architektury, a także w roli architekta i projektanta przestrzeni. Rozwój nowych mediów, dostępność oprogramowania, a nawet systemy wymuszające paradygmat ubicomp sprawiają, że architektura jako system kontroli i pewnego rodzaju przemocy eksperta zmienia się w bardziej dialogiczną dziedzinę, otwartą na negocjacje z użytkownikiem przestrzeni. Interesujący jest fakt, że Haque postrzega tę sytuację nie jako zagrożenie dla własnej specjalizacji, lecz jako szansę dla architekta, którego rolę pojmuje analogicznie do roli projektanta systemu operacyjnego25. Projektant i badacz widzi zresztą sens w otwieraniu architektury jeszcze bardziej, zwłaszcza w kierunku „uwalniania kodu”, analogicznie do działań informatyków spod znaku open source, free software i open hardware, a zatem zmierzającym ku otwarciu na działania społeczne samego procesu projektowego – procesu kreacji przestrzeni26. Zdaniem innych designerów paradygmat ubicomp, promując rutynowe wykorzystanie sprawdzonych schematów interakcji, skutkuje ograniczeniem kreatywności projektantów. Nie chodzi tu jednak o architektów, ale przede wszystkim o projektantów aplikacji na smartfony, wykorzystujące geolokalizację i technologię context-awareness. Nicolas Nova i Julian Bleecker wspominają na przykład o powtarzalności modelu aplikacji wyszukujących znajomych (buddy-finders) czy oferujących określone usługi (location-based coupons)27. Z kolei wspomniany już 24 25 26
27
U. Haque, Surrounding Architecture [w:] Hybrid – Living in Paradox. Ars Electronica 2005, red. G. Stocker, Ch. Schöpf, Linz 2005, s. 152–153. Tamże, s. 154. M. Fuller, U. Haque, Urban Versioning System 1.0, illustr. D. Cuesta, series: Situated Technologies Pamphlets 2, The Architectural League of New York, Nowy Jork 2008, passim; URL: <www.situatedtechnologies.net/files/ST2-Urban_Versioning_System. pdf> (dostęp: 14.01.2012 r.). J. Bleecker, N. Nova, A Synchronicity: Design Fictions for Asynchonous Urban Computing, series: Situated Technologies Pamphlets 2, The Architectural League of New York, Nowy Jork 2009; URL: <www.situatedtechnologies.net/files/ST5-A_synchronicity. pdf> (dostęp: 14.01.2012 r.).
193
wcześniej Mark Shepard (również architekt, projektant i artysta) oraz Adam Greenfield (projektant i badacz) mówią wprost o pewnych kliszach mentalnych, związanych z ideą ubicomp (którą Greenfield tłumaczy jako bardziej zrozumiałe dla szerokiej publiczności everyware). Dotyczy to zwłaszcza dyskursu marketingowego, w którym zdaniem Greenfielda zwroty location-based i context-aware stały się rodzajem Świętego Grala, obiecującego reklamodawcom raj dostępu do pełnej wiedzy o klientach, przypominający scenę z Raportu mniejszości, w której holograficzne reklamy zwracają się do przechodzącego bohatera po imieniu i adekwatnie do sytuacji, oferując właśnie to, czego szuka w danej chwili. Przedsmakiem takiego źle rozumianego przez reklamodawców cyberraju ma być przykład działań firmy Starbucks, która wysyła informację o kuponie na darmową kawę latte do telefonu klienta, który znajduje się w zasięgu WIFI kawiarni.28. Taka spersonalizowana reklama kontekstowa może jednak oznaczać również irytację klienta, który zrezygnuje z usług natrętnej firmy na stałe. W sensie komunikacyjnym technologie ubicomp prezentują się przede wszystkim, jak twierdzi Greenfield, jako everyware, czyli akcentując aspekt wszechobecności, a nawet wręcz wszędobylskości (pervasive computing, ubiquitous computing), ale warto również pamiętać o ich innym charakterystycznym aspekcie. Są to w dużej mierze technologie dyskretne, o których łatwo zapomnieć, gdyż nie są widoczne, przynajmniej dla tych ludzi, którzy nie są wyposażeni w odpowiednie urządzenia odbiorcze (na przykład smartfony czy tablety). Zmienia to również w pewnym sensie układ sił społecznych. System sprawuje kontrolę nad społeczeństwem w sposób niedostrzegalny. Ujawnia się jedynie przez przypadek. Tak powstaje zapewne mindware – w nieświadomości. Można wprawdzie powątpiewać, czy system lokalizacji zawładnął totalnie naszym myśleniem i działaniami, jednak trudno mieć dziś poczucie, że jest on nieobecny. Świadomość taką zyskuje na pewno użytkownik iPhone’a, który co chwilę ze względów bezpieczeństwa informuje, że dana aplikacja żąda dostępu do danych o lokalizacji użytkownika, wywołując jego zdziwienie. Oczywiście aplikacje geolokalizacyjne muszą korzystać z takich danych, jednak wiele innych zdaje się nadużywać woli użytkownika, który często nieświadomie zgadza się na automatyczną lokalizację non stop. W tym kontekście nowego znaczenia nabierają słowa Adama Greenfielda, który stwierdza, że iPhone jest nowego rodzaju przysłoną, która przepuszcza informacje, podobnie jak przysłona w aparacie fotograficznym przepuszcza światło29. Tym samym iPhone zostaje przez projektanta potraktowany jako technologia kształtująca użytkownika, jego dostęp do wiedzy i sposób widzenia świata – technologia umysłu, psychotechnologia, mindware. Z namysłu nad takim właśnie stanem nieinwazyjnej, ale jednak kontroli, wywodzi się wspomniana praca Marka Sheparda Sentient City Survival Kit. Warto dodać jeszcze, że częścią zestawu jest tu między innymi parasol, uniemożliwiający kamerom CCTV rejestrację obrazu użytkownika (emituje bowiem promieniowanie w paśmie podczerwieni, co uniemożliwia kamerze widzenie). Nie można pominąć przecież faktu, że system kontroli to również system analizy danych wizualnych, który dzięki oprogramowaniu do analizy motoryki człowieka pozwala znaleźć niepowtarzalne, indywidualne wzorce ruchów, które mogą służyć do celów identyfikacyjnych.
28
29
A. Greenfield, M. Shepard, Urban Computing and Its Discontents, series: Situated Technologies Pamphlets 1, The Architectural League of New York, Nowy Jork 2007, s. 14; URL: <www.situatedtechnologies.net/files/ST1-Urban_Computing.pdf> (dostęp: 14.01.2012 r.). Tamże, s. 10.
194
Ewangeliści pervasive/ubiquitous computing głoszą nadchodzącą erę miejskich systemów informacji zdolnych do odbierania (sensing) i odpowiadania na zdarzenia i działania zachodzące wokół. Nasycone zdolnością zapamiętywania, wykrywania zależności i antycypacji, takie „odczuwające” miasto projektowane jest jako zdolne do refleksyjnego monitoringu naszych zachowań i staje się aktywnym czynnikiem organizującym nasze codzienne życie. Niektórzy mogą spierać się, że „inteligentne” systemy kontroli świateł ulicznych bardziej efektywnie zarządzają przepływem ciężarówek, samochodów i autobusów na ulicach naszych miast. Inni mogą być poirytowani, gdy kupony rabatowe na ich ulubione espresso pojawiają się na ich telefonie komórkowym, gdy mijają Starbucks. Wielu prawdopodobnie będzie protestować, gdy system odmówi im wstępu do metra, wyczuwając, że ich zwyczaje konsumenckie, wzory mobilności i aktualny odczyt reakcji skórno-galwanicznej (GSR) odpowiada profilowi terrorysty30.
Wystarczy pomyśleć o miastach, takich jak Tokio, Londyn czy Nowy Jork, w których zainstalowane są tysiące kamer CCTV, by zadać sobie pytanie, czy możliwe jest uniknięcie bycia monitorowanym. Projekt Sheparda daje taką nadzieję, podobnie jak projekt nowojorski iSee czy londyński projekt Manu Luksch Faceless (choć jednocześnie uświadamiają one, że nie jest to łatwe i wymaga odpowiedniego wysiłku oraz kontrtechnologii), z kolei tokijski projekt Ryoty Kimury SUICA (Super Urban Intelligence) podaje te możliwości w wątpliwość. Wszystko zależy od wszechwładzy systemu i stopnia, w jaki technologia jest otwarta na hakowanie, kontestację czy działania subwersywne31. Każda z powyższych prac może jednak być uznana za udaną próbę uświadomienia problematycznego charakteru formy miasta wykorzystującego technologie mieszczące się w ramach paradygmatu ubicomp, określane różnymi mianami – urban computing, ambient informatics, pervasive computing, locative media, CCTV, RFID, Internet of Things, smart objects – czy jeszcze inaczej. Miasto wyposażone w takie technologie kontroli staje się architektoniczno-informatycznym mindware współczesnego społeczeństwa. Warto jednak zauważyć, że jest to miękka kontrola32. Mindware: strategie kontroli i oporu Podejście artystyczne zaproponowane przez Sheparda reprezentuje wielu współczesnych artystów, którzy swoimi działaniami wyraźnie kontestują system globalnej i medialnej kontroli. Można uznać ich działania za strategie oporu wobec strategii kontroli wpisanych w technologię (GPS, RFID, GSM itd.). Mowa tu oczywiście o innym poziomie strategii autorskich wpisanych w dzieło niż te, o których pisze Ryszard W. Kluszczyński w swojej książce o sztuce interaktywnej (w ramach której mieszczą się wszystkie omawiane prace)33. W rozważanym kon30 31
32 33
M. Shepard, Sentient City Survival Kit [w:] CyberArts2011. Prix Ars Electronica, red. H. Leopoldseder, Ch. Schöpf, G. Stocker, Linz 2011, s. 192–193. M. Luksch, M. Patel, Faceless: Chasing the Data Shadow [w:] Goodbye Privacy. Ars Electronica 2006, red. Ch. Schöpf, G. Stocker, Linz 2006, s. 72–85; R. Kimura, S.U.I. – por. CyberArts 2006. Prix Ars Electronica, red. H. Leopoldseder, Ch. Schöpf, G. Stocker, Linz 2006, s. 136–137; o projekcie iSee pisze Anna Nacher w swoim artykule w niniejszym tomie: Ku kognitywnej przestrzeni publicznej – strategie otwierania. Por. też: iSee, URL: <www.appliedautonomy.com/isee.html> (dostęp: 14.01.2012 r.). Greenfield mówi o niej, że jest to soft control w przeciwieństwie do systemu przemocy i kontroli „w stylu Tiananmen”. Por. Greenfield, Shepard, Urban Computing…, s. 22. Mowa tu o strategiach: instrumentu, gry, archiwum, labiryntu, kłącza, systemu, sieci i spektaklu. Dodać trzeba jednak, że wspomniany badacz dostrzega również w całej sztuce interaktywnej pewnego rodzaju napięcie pomiędzy „strategiami kontroli
195
tekście ważniejsze jednak jest zaznaczenie strategii komunikacyjnych niż strategii artystycznych, którymi się posługują. To właśnie strategie komunikacyjne (kontrola i opór) stanowią bowiem podstawę ideową omawianych prac z zakresu sztuki GPS, które oprócz dostarczania nowatorskich interfejsów czy aplikacji są przede wszystkim nowomedialnymi eksperymentami społecznymi nacechowanymi krytycznie bądź refleksyjnie. Trzeba przynajmniej wspomnieć jeszcze kilka innych prac i projektów, gdyż na kilka sposobów odnoszą się do różnych technologii kontroli. Z jednej strony, sytuują się tu projekty z zakresu społecznego mapowania (najczęściej moderowane przez artystę lub grupę aktywistów), które odpowiadają na potrzebę przejęcia funkcji aktora w procesie komunikacyjnym przez różne grupy. Należy w tym kontekście wymienić projekt Canal *Accessible (umożliwiający niepełnosprawnym tworzyć fotograficzną wikimapę przeszkód architektonicznych w Barcelonie), In.fondo. al.mar (wikimapa, na której użytkownicy zaznaczają udokumentowane wiadomości o wypadkach statków lub toksycznych odpadach nielegalnie składowanych na dnie Morza Śródziemnego) czy Trash Track (wykorzystujący kody RFID do śledzenia globalnej trasy, jaką odbywają amerykańskie śmieci)34. Z drugiej strony, warto wspomnieć o projektach, które odpowiadają w przewrotny sposób na ideę Internetu Rzeczy czy Internetu Przedmiotów (Internet of Things) i wykorzystujących ideę Smart Dust35 (czy też koncepcję blogujących obiektów – blogjects) w odpowiedzi na potrzeby społeczne. Czyni tak na przykład Pigeon Blog (gołębie są tu wykorzystywane jako blogerzy, zbierający dzięki noszonym sensorom i przesyłający w czasie rzeczywistym za pomocą specjalnych nadajników dane do Google Maps na temat zanieczyszczenia powietrza) czy Participatory Urbanism (monitorowanie zanieczyszczeń powietrza przez grupę osób w różnych punktach miasta Akra w Ghanie), które poszerzają publiczną wiedzę o środowisku. Inne projekty, jak Constrained City / The pain of everyday life (kostium zadający ból fizyczny, powstający przez ruch silniczków podczas mijania sieci WIFI, wywołujący zaciskanie taśm oplatających ciało), pozwalają przyjrzeć się bliżej wszechobecności sieci WIFI. Jeszcze inne, jak Microblogging Suit for an Industrial Worker (zestaw przesyłający twity o ruchu każdej części ciała do serwisu mikroblogerskiego), stanowią refleksję nad społecznymi skutkami mikroblogowania i wpływem tej technologii na komunikację36.
34
35 36
i praktykami wolności” (mowa tu jednak o przeciwstawianych sobie dążeniach artysty i odbiorcy dzieła, a nie o procesie komunikacji za pośrednictwem mediów, który tu rozważam). Por. R.W. Kluszczyński, Sztuka interaktywna. Od dzieła-instrumentu do interaktywnego spektaklu, Warszawa 2010, s. 217–264, cyt. s. 221. A. Abad, Canal *Accessible [w:] CyberArts 2007. Prix Ars Electronica, red. H. Leopoldseder, Ch. Schöpf, G. Stocker, Linz 2007, s. 200–203. Canal *Accessible, URL: <www. zexe.net> (dostęp: 14.01.2012 r.); In.fondo.al.mar, URL: <www.infondoalmar.info> (dostęp: 14.01.2012 r.) oraz: D. Boardman, P. Gerbaudo, In Fondo Al Mar (Under the Sea) [w:] Repair. Sind wir noch zu retten. Ars Electronica 2010, red. H. Leopoldseder, Ch. Schöpf, G. Stocker, Linz 2010, s. 32–33; Trash Track, MIT Senseable City Lab, URL: <http://senseable.mit.edu/trashtrack/> (dostęp: 14.01.2012 r.) oraz: Trash Track, MIT Senseable City Lab [w:] Repair…, s. 46–49. Smart Dust. Autonomous Sensing and Communication in a Cubic Milimeter. (K. Pister, J. Kahn, B. Boser), strona projektu w University of Berkley, URL: <http://robotics. eecs.berkeley.edu/~pister/SmartDust/> (dostęp: 14.01.2012 r.). Pigeon Blog, URL: <www.beatrizdacosta.net/pigeonblog.php> (dostęp: 14.01.2012 r.) oraz: B. da Costa, C. Hazegh, K. Ponto, PigeonBlog [w:] CyberArts 2007. Prix Ars Electronica, red. H. Leopoldseder, Ch. Schöpf, G. Stocker, Linz 2007, s. 144–145; Tracing Mobility: Gordan Savicic – Constraint City / The pain of everyday life 2007, URL: <http://trampoline.org.uk/tracingmobility/artist/trampoline/gordan-savicicconstraintcity> (dostęp: 14.01.2012 r.) oraz: G. Savicic, Constrained City / The pain of
196
Interesujący jest również nurt ukazujący poszukiwania w zakresie istoty technologii jako systemu: na przykład G-player, estetyzujący działanie GPS w formie nagrań audio powierzchni Ziemi (satelita pełni tu rolę metaforycznej igły adaptera), Drift Deck, kompas tematyzujący w przewrotny sposób ideę odnajdywania drogi (wayfinding) za pomocą tradycyjnych narzędzi nawigacyjnych (kompas zmodyfikowany jest odpowiednim oprogramowaniem, które hakuje działanie urządzenia w sposób widoczny dla użytkownika), czy Redes Vestiveis / Wearable Nets – aplikacja tematyzująca wearable computing, ubicomp oraz geolokalizację, umożliwiająca zabawę w terenie, polegającą na geolokalizacji grupy użytkowników jako elementów wspólnej sieci37. Oczywiście można tę listę wydłużyć również o znaczące eksperymenty Chrisa Nolda czy o prace powstające w MIT Senseable City Lab (należy do nich zresztą wspominany tu Trash Track)38. Każda z tych prac na swój sposób stanowi refleksję nad stanem kultury i technologii, a także naturą samego człowieka, która ulega transformacjom. Paradoks mindware Jeżeli potraktować mindware jako pewną metaforę współczesnych przemian cywilizacyjnych, otwierającą nowe sposoby patrzenia na rolę technologii informatycznych i informacyjnych w procesie kształtowania świadomości współczesnego człowieka, można rozumieć termin na kilka sposobów, które niekoniecznie się wzajemnie wykluczają. Mindware może oznaczać zatem: technologie umysłu, umysł technologiczny lub też termin ten rozumieć należy zgodnie z etymologią. Może też być wypadkową wszystkich tych sposobów rozumienia. Refleksję wypada paradoksalnie zacząć od analizy ostatniej z propozycji jako podstawowej w sensie semiotycznym. O ile trudno sprzeczać się z tym, co oznacza MIND, gdyż tłumaczenia od lat są raczej jednoznaczne i koncentrują się na rozumieniu go jako UMYSŁ, o tyle słownik (na przykład Webster) podaje różne znaczenia słowa WARE. Z jednej strony są to ‘dobra, które podlegają wymianie handlowej’, z drugiej – co ciekawe w kontekście kulturoznawczym – ‘dobra wytworzone ręcznie’, a z trzeciej – pozornie paradoksalnie: ‘pottery’, a zatem ‘zastawa stołowa’ czy ‘porcelana’, co w kontekście historyczno-kulturowym można rozumieć jako pierwszy symbol bogactwa, zbytku. Warto rozważyć te propozycje słownikowe, wskazują one na historię pojęcia i na wyrazistą wartość kulturową przedmiotów, które określano jako ware. MindWARE musi być więc czymś ważnym dla cywilizacji, czymś drogim w sensie kulturowym, ideologicznym bądź ekonomicznym, wreszcie musi być wytworem ludzkim (choć argumentu
37
38
everyday life [w:] CyberArts 2008. Prix Ars Electronica, red. H. Leopoldseder, Ch. Schöpf, G. Stocker, Linz 2008, s. 170–171; Participatory Urbanism (E. Paulos, I. Smith, RJ Honicky), URL: <www.urban-atmospheres.net/ParticipatoryUrbanism/index. html> (dostęp: 14.01.2012 r.) oraz: Greenfield, Shepard, Urban Computing…, s. 42; F. Moldovan, Microblogging Suit for an Industrial Worker [w:] Human Nature. Ars Electronica 2010, red. G. Stocker Ch. Schöpf, Linz 2007, s. 120–121. J. Brand, G-player [w:] CyberArts 2005. Prix Ars Electronica, red. H. Leopoldseder, Ch. Schöpf, G. Stocker, Linz 2005, s. 78. Near Future Laboratory. Projects: Drift Deck, URL: <http://nearfuturelaboratory.com/projects> oraz J. Bleecker, N. Nova, A Synchronicity…, s. 34–36; Redes Vestiveis, URL: <http://redesvestiveis.net/en/index.html> (dostęp: 14.01.2012 r.) oraz: C. Bueno, Redes Vestiveis / Wearable Nets [w:] CyberArts 2011. Prix Ars Electronica, red. H. Leopoldseder, Ch. Schöpf, G. Stocker , Linz 2011, s. 186–187. O interesujących pracach Chrisa Nolda pisze w tym tomie w swoim artykule Anna Nacher; por. też: Tejże: BioMapping Christiana Nolda – transmedialna retoryka wędrowna [w:] Sztuki w przestrzeni transmedialnej, red. T. Załuski, Łódź 2010, s. 232–243; oraz: MIT Senseable City Lab, URL: <http://senseable.mit.edu> (dostęp: 14.01.2012 r.).
197
o ręcznym wyrobie raczej nie uda się utrzymać, warto jednak wrócić do tej kwestii w kontekście technologii druku 3D i FabLab-ów czy DIY). Ostatnie podane w słowniku znaczenie odsyła też do istotnej kwestii – pewnej ekskluzywności. Oczywiście nie trzeba skupiać się na tym właśnie znaczeniu; odsyła ono raczej do historii rozumienia dóbr materialnych. Źródłosłów wskazuje zresztą na ‘dobra, o które trzeba się troszczyć’, ‘o które trzeba dbać’, ale i ‘obserwować’ (observe, take care). Słowo ware pochodzi od staroangielskiego warian, czyli strażnik. Podsumowując, znaczenie słownikowe odsyła do rozumienia mindware jako dóbr umysłowych, których należy strzec. Proponowane tu rozumienie wiąże się również z pierwszym sygnalizowanym sposobem rozumienia terminu jako technologii umysłu. W tym ujęciu mindware można rozumieć wielorako, mając jednak na uwadze związek nowych mediów z nowymi sposobami myślenia, wpływ nowych technologii na określone strategie kognitywne, także świadomość. Należy jednak sprecyzować ten punkt widzenia: nie chodzi o to, czy postrzegamy piksele i jak, cechy nowych mediów, takie jak interaktywność wpływają na nasze zachowania. Kwestie te zostały już wyczerpująco opisane pojęciami: nowe media (choćby w ujęciu Manovicha), inteligencja kolektywna / konektywna (w ujęciu Lévy’ego i de Kerckhove’a) czy po prostu zawierają się w pojęciu cyberkultura. Należy tu doprecyzować ‚technologie umysłu’ jako nowe technologie, które wpływają na nasze rozumienie świata i strukturę kultury, a nawet samego mózgu (na co wskazują na przykład badania Susan Greenfield), stanowiąc dla niego ramę kognitywną. Pośrednio chodzi tu zatem o zjawisko, o którym już dawno w kontekście innych mediów pisał Marshall McLuhan, a następnie Derrick de Kerckhove, który odnosił tę perspektywę do mediów cyfrowych. Mindware możemy zatem rozumieć jako ‘technologie umysłu’, ale z zastrzeżeniem, że na nowo definiujemy zarazem: ‘medium’, ‘efekty działania medium’ i de Kerckhove’owskie ‘psychotechnologie’. Mindware jako ‘technologie umysłu’ odnoszą oczywiście również do neuropsychologii, teorii wpływu społecznego, wyobraźni kulturowej, komunikacji zapośredniczonej, a także do kwestii władzy, ideologii, technokracji i roli nauki oraz sztuki w procesie kształtowania współczesnej umysłowości. Mindware zatem to przede wszystkim Google i Facebook. Mindware to Twitter i YouTube. Mindware to systemy operacyjne i programy, z których korzystamy bezrefleksyjnie na co dzień, a także iPhone i Android. Narzędzia, kształtujące myśli współczesnego człowieka, wyznaczające horyzont poznawczy, w sposób determinujący i zarazem dyskretny, a zatem niezauważalny. Mindware to także technologie codzienności: globalna Sieć, telefonia komórkowa i GPS. Jednocześnie mindware to narzędzia niezgody na posłuszeństwo wobec systemu – Wikileaks, wikimapy, wreszcie mikroblogi pozwalające zbierać się na placach i protestować, a także opisane działania haktywistyczne i artystyczne. Z drugiej strony, mindware to także technologie wielbione przez transhumanistów z kręgu Raymonda Kurzweila i budowane przez inżynierów-technorealistów, jak Kevin Warwick. MindWare jednocześnie może być nazwą pierwszego komercyjnego chipu domózgowego lub innej technologii rozszerzającej pamięć biologiczną. Może jednak mindware to przede wszystkim stan umysłu ‘umysł technologiczny’, charakteryzujący cyberkulturę. Jedno drugiego nie wyklucza. Dokąd nas zaprowadzi taka refleksja? Może warto przypomnieć sobie słowa McLuhana – „rozszerzenie oznacza też amputację”.
198
Postmediacje
Wokół interfejsów
Sztuka mediów
Chwytanie ruchu Paweł Janicki
201
Chciałbym napisać kilka słów o konsekwencjach eksperymentów warsztatowych w przestrzeni sztuki mediów. Ponieważ, poza własną aktywnością twórczą, często zdarza mi się wspomagać innych artystów operujących w domenie mediów elektronicznych. Zacząłem w pewnym momencie zauważać, że moje doświadczenia i przemyślenia związane z działalnością na tym polu układają się w pewien pattern. Warsztat artysty medialnego jest często, szczególnie na rodzimym gruncie, sprowadzany do kategorii technologicznych. Nie ma w tym niczego dziwnego, generalnie cała sztuka współczesna jest „rozczarowana warsztatem” i poszukuje wartościowych jakości poza nim. Istnieje jednak zasadnicza różnica pomiędzy porzuceniem jałowego w istocie dekoracjonizmu i technicznego „dopieszczania” prac (współcześnie charakterystycznych bardziej dla reklamy niż działalności artystycznej) a niechęcią do rozumienia tego, w jaki sposób działa to, z czego można korzystać. Biorąc pod uwagę, że twórca medialny korzysta zasadniczo z tej samej technologii, która kształtuje obrazowanie otaczającego świata, można powiedzieć, że ignorowanie specyfiki warsztatu medialnego świadczy w jakiejś mierze o niechęci do prób zrozumienia otaczającej rzeczywistości. Wydaje mi się, że wielu obecnie aktywnych artystów korzysta z mediów elektronicznych na sposób kliencki: uważają, że środki są już gotowe, a operowaniem nimi (ewentualnie ich przystosowaniem) powinien zająć się „ktoś inny”. W tym miejscu pojawia się zresztą figura „mitycznego informatyka”, wcielającego w życie genialne koncepcje artysty. Idee w rodzaju punkowo-kontrkulturowego do it yourself, twórczego sabotażu, poszerzania granic mediów i ich krytycznej dekonstrukcji czy wreszcie zwykłej ciekawości zmuszającej do zaglądania „pod obudowę” funkcjonują głównie na papierze, w tekstach krytycznych i wymaganych przez duże festiwale krótkich (przynajmniej w teorii, bo w praktyce bombastycznych i rozdymanych do granic absurdu) opisach prac. Wielu artystów odbiera też zmedializowaną rzeczywistość w sposób konsumencki: korzystają po prostu z przedstawianej im oferty. Dotyczy to zresztą wszystkich osób zaangażowanych w medialny segment art world. Naturalnie, podobne do powyższych (i, jak zostanie to przedstawione, poniższych), wnioski można ekstrapolować na życie społeczne w szerszym niż związane ze sztuką rozumieniem. Na szczęście jednak wiele kreatywnych indywidualności konsekwentnie stara się podążać innymi ścieżkami i głównie o rezultatach ich aktywności chciałbym pisać w dalszej części tekstu. Zamierzam skupić się na losach jednego tylko urządzenia: kamery – wydaje mi się, że to, w jakich kontekstach kamera funkcjonuje, ukazuje wyraziście, że żaden środek techniczny nigdy nie jest „gotowy”, a tylko od nas zależy, czy zajmiemy się jego bezpiecznym używaniem i „zużywaniem” w ramach aktualnie dominującego modelu praktyk, czy raczej nasza ciekawość i chęć podjęcia ryzyka popchnie nas na nieznane wody. * Pojawienie się mechanicznych technik rejestracji obrazu, a więc fotografii, a później filmu, wpłynęło, co oczywiste, w znaczny sposób na funkcjonowanie starszych mediów: choćby malarstwa, rzeźby i teatru. Poza tym wykształciło jednak wiele praktyk swoistych dla własnej technologicznej podstawy, czyli, przede wszystkim, sztukę fotografii i sztukę operatorską. Jedna i druga posługuje się w tej chwili własnym, samodzielnym językiem, korzystającym z dorobku wcześniej istniejących sztuk wizualnych i narracyjnych, ale jednocześnie nieredukowalnym do historycznych inspiracji. Dla starszych sióstr-mediów fotografia i film
203
okazały się technicznym pomocnikiem umożliwiającym uproszczenie wielu kłopotliwych do tej pory czynności, uzupełnieniem rezerwuaru środków (np. tak było w przypadku scenografii), a wreszcie, co wydaje się najciekawsze, źródłem nowych idei pozwalających spojrzeć w nowy sposób na elementy znanej rzeczywistości. Jednocześnie film i fotografia wyewoluowały od jarmarcznych pierwocin do pełnowartościowych dyscyplin artystycznych z niejakim tylko rozrzewnieniem spoglądających wstecz na skromne, protoplazmatyczne początki. Schemat powyższy jest w pewnej mierze oczywisty: nowe – w zastanej chwili – media tworzą, nie bez odniesień do historii, własne formy i estetyki oraz wzbogacają i przemieniają media starsze (czasem uwalniając je od ciężaru powinności, tak jak media hipertekstowe, które wyparły papierowe spisy numerów telefonicznych itp.). Zwykle za ciekawsze i bardziej wartościowe uważa się te przestrzenie, które nowe media tworzą, a nie te, które modyfikują. Czasem warto przyjrzeć się właśnie temu, w jaki sposób nowe media wpływają na to, co istniało wcześniej – niekiedy okazuje się, że nowości dostarczają nam perspektywy, w której znane obiekty ujawniają nieodkryte wcześniej właściwości. Nieprzypadkowo rozpoczynam, pisząc o kamerze, ponieważ jest to obiekt szczególny, którego losy i recepcja obecności w dużej mierze zależały i zależą od kontekstu (inaczej przecież myśli się o kamerze filmowej, inaczej o CCTV itp). To samo dotyczy sposobu jego wykorzystania, można rzec, że kamera mówi różnymi językami, w zależności od miejsca, w którym się ją napotyka. McLuhanowski bon mot „medium jest przekazem” trzeba więc wobec kamery stosować nader ostrożnie. * To, że kamera potrafi więcej, niż się zwykle wydaje, ukazują technologie wykorzystujące ją w charakterze sensora ruchu. Systemy śledzenia ruchu (motion capture, motion tracking) pojawiły się na skrzyżowaniu kilku przynajmniej dyscyplin i zapotrzebowań: animacji, filmu, mediów interaktywnych, technik dozoru. Zasadniczo służą jednemu celowi: wychwyceniu informacji o ruchu obiektów poruszających się w monitorowanej strefie. Rodzaj informacji, jaki chce się uzyskać, jest zawsze jak najszerszy: zasadniczo chciałoby się wiedzieć o poruszającym obiekcie „wszystko”, ale z różnych, w tym czysto technicznych powodów należy ograniczać się do pewnego zbioru informacji, często zresztą pokrywającego się z najbardziej potrzebnymi danymi. Oczywiście same zebrane informacje muszą być dostępne w formie pozwalającej na ich wykorzystanie (powiadomienie policji o włamaniu, sterowanie awatarem w środowisku 3D itp.). Wraz z rozwojem technologicznym systemy takie zmieniały swoje formy (warto zauważyć, że zanim systemy śledzenia ruchu pojawiły się w znanych współcześnie formach, istniały ich antycypacje, np. znana animatorom i stosowana po dziś dzień rotoskopia) od czysto mechanicznych, elektrycznych i fotoelektrycznych, do współczesnych, opartych często na bardzo wyrafinowanych typach sensorów. Warto w tym miejscu zauważyć, że, wbrew pozorom, zagadnienia technologiczne związane ze śledzeniem ruchu wcale nie są banalne. Dla większości ludzi wyłuskanie z tła obrazu ruchomych elementów (nawet jeśli każdy nieraz daje się oszukać, siedząc w pociągu i biorąc ruch innego pociągu widzianego z okna za własny lub odwrotnie) i rozpoznanie w nich np. osób lub maszyn jest tak intuicyjne, że nie zawracają sobie głowy myśleniem o naturze i skomplikowaniu procesów pozwalających na finalne przekazanie świadomości informacji w rodzaju „zbliża się pies”. W rzeczywistości jednak są to dość skomplikowane i kosztowne obliczeniowo aktywności, symulacją lub substytucją których zajmują
204
się np. osoby parające się robotyką, balistyką czy wspomnianymi technikami dozoru. A także, jak się okazuje, artyści i osoby związane z wykorzystaniem technologii medialnych w sztuce lub w przemysłach rozrywkowych. Każdy system śledzenia ruchu wymaga jakiegoś typu sensora umożliwiającego wykrycie samego wystąpienia ruchu i jego parametrów. Ma się więc czasem do czynienia z ubieralnymi lub nawet wszczepialnymi (jeśli w doświadczeniu zależy na wykryciu ruchu człowieka lub zwierzęcia) systemami opartymi na różnego rodzaju markerach (radiowych, podczerwonych, ultradźwiękowych), różnego rodzaju konceptami opartymi na detekcji pola elektromagnetycznego (np. reagujący na ruch ręki muzyka thereminvox) i innymi. Osobną kategorię systemów śledzenia ruchu tworzą te, które wykorzystują jako sensor kamerę. Kamera przekazuje obraz do odpowiedniego oprogramowania, zajmującego się analizą napływającego strumienia wideo i wyłuskiwaniem z niego informacji. Znów może się to wydać oczywiste (w końcu każdy jest w stanie zidentyfikować ruchome obiekty wyświetlane na ekranie choćby podczas seansu w kinie), jednak w praktyce uzyskanie precyzyjnej informacji o tym, co i w jaki sposób się porusza, nie jest łatwe z powodów, o których pisałem wyżej. Jeśli założy się, że kamera jest statyczna (nie porusza się, a operator nie manipuluje obiektywem ani innymi parametrami, czyli kamera po prostu została włączona i rejestruje obraz), a do tego monitorowana przestrzeń jest oświetlona w stały i niezmienny sposób, to różnice pomiędzy kolejnymi klatkami obrazu świadczą o tym, że coś tam się porusza. Jeśli np. ustawi się kamerę w pustym pokoju, zapisze jedną klatkę obrazu, a następnie będzie porównywać ją z kolejnymi, to w momencie, kiedy wychwyci się różnicę pomiędzy klatką „wzorcową” i którąś z kolejnych, można uznać, że odnaleziono ruchomy obiekt (trzeba by tutaj dodać jeszcze wiele technicznych zastrzeżeń, ale nie są one istotne na tym poziomie ogólności). Filtrację tego typu (porównywanie kolejnych klatek z założonym wzorcem) można przeprowadzić nawet na drodze analogowej, uzyskując obraz zawierający różnicę pomiędzy porównywanymi obrazami. Jednak narzędzia cyfrowe umożliwiły kontynuację tego procesu o coś jakościowo nowego: analizę wynikowego obrazu i uzyskanie informacji niebędącej kolejnym obrazem, tylko „matematycznym” opisem ruchomych elementów (np. wektora ruchu, położenia środka, punktów wyznaczających kontur itp.). W połączeniu z algorytmami rozpoznawania wzorca (pattern recognition, computer vision) można pójść nawet dużo dalej, rozpoznając twarze, specyficzne kształty (świetnymi przykładami będą tu m.in. środowiska ARToolkit lub markery Reactivision), dopasowując dane o ruchu do kształtu człowieka (np. „szkielet” znany z gier korzystających z Kinect). Swoją drogą wiele z tych możliwości wykorzystuje przemysł rozrywkowy, technologie konsumenckie i systemy nadzoru. Naturalnie wyprodukowane przez systemy śledzenia ruchu dane łatwo jest zamienić na dowolne inne medium, m.in. na. dźwięk, co otwiera ciekawe możliwości budowy interfejsów dla instrumentów muzycznych. Efekty pracy systemu śledzenia ruchu mogą być łatwo transmitowane na przykład przez Sieć, umożliwiając coś, co można by nazwać hiperprzestrzenną kompozycją kinetyczną [tego rodzaju informacje zajmują dużo mniejszą część pasma transmisji niż surowy obraz (innymi słowy, nie wymaga szybkiego połączenia), jest to technologicznie i ekonomicznie bardzo wygodne]. Wydaje mi się, że w pewien sposób jest to o wiele ciekawsza sytuacja niż typowe telematyczne projekty powielające (czyli wyświetlające) jedynie zarejestrowany obraz w innym fizycznym miejscu, niczym znane z telewizyjnych programów rozrywkowych z lat 80. i 90. XX w. „telemosty”. Pionierów tego rodzaju systemów było oczywiście przynajmniej kilku, warto w tym miejscu wspomnieć urodzonego w 1942 r. Myrona Kruegera,
205
znanego m.in. dzięki interaktywnemu środowisku „Videoplace” (1975), który rozpoczął eksperymenty z interaktywnymi systemami opartymi na systemach śledzenia ruchu już w późnych latach 60. XX w. (w 1969 roku przestawił, wspólnie z Danem Sandinem, Jerrym Erdmanem i Richardem Venezkym, interaktywne środowisko „Glowflow”). Krueger, m.in. dzięki teoretycznej i praktycznej wiedzy o technologii, był w stanie sformułować odpowiednie koncepcje i później wcielać je w życie. Krueger po dziś dzień jest zainteresowany interakcją jako samodzielną jakością nie zaś interakcją „po coś” czy istniejącą jako funkcjonalny element dzieła sztuki. Właściwie wszystkie jego realizacje mają charakter interaktywny i w jakiś sposób są związane z kontrolą środowiska medialnego za pomocą ciała (stąd Myron Krueger czasem bywa przywoływany jako pionier VR i AR). Poza Kruegerem, jak wspomniałem, wielu innych artystów medialnych eksperymentowało z kamerą, głównie dotyczy to twórców skupionych, podobnie jak Krueger, na interakcji. Prace interaktywne niemal zawsze potrzebują jakiegoś interfejsu umożliwiającego komunikację odbiorców z dziełem, bardzo szybko okazało się, że kamera jest urządzeniem tak rozpowszechnionym i wszechstronnym, że jest po prostu najwygodniejszym sensorem, jakim łatwo można posłużyć się, zwłaszcza w instalacjach i innych realizacjach wykorzystujących komputer. Systemy śledzenia ruchu, pomimo „artystycznych” zastosowań, ciągle nie utraciły związków z systemami nadzoru przemysłowego, np. popularna głównie w Niemczech, zaprojektowana przez Friedera Weißa aplikacja „EyeCon” (wykorzystywana m.in. przez kampanie teatralne i zespoły łączące np. taniec z nowymi mediami) jest zoptymalizowana do pracy z kamerami nadzoru przemysłowego pracującymi w podczerwieni. Częste wykorzystanie pasma podczerwieni w tego typu systemach jest spowodowane tym, że można uniezależnić się od światła widzialnego. Przykładowo, scena oświetlona reflektorami podczerwieni i widziana przez kamerę pracującą w tym paśmie promieniowania elektromagnetycznego daje ciągle pełne możliwości kształtowania oświetlenia w zakresie widzialnego spektrum, podobnie omawiany system będzie niewrażliwy na np. światło pochodzące z przypadkowych źródeł, choćby lamp błyskowych. Systemy śledzenia ruchu oparte na kamerze okazały się też „brakującym ogniwem” pomiędzy sztuką technologii cyfrowych a dyscyplinami związanymi z ciałem, takimi jak taniec, teatr czy performance. Dzięki informacjom z systemów śledzenia ruchu można łatwo powiązać fizyczną aktywność performera, aktora lub tancerza z tym, co dzieje się na planie mediów elektronicznych. Zasadniczo cały zakres sztuki związanej z ciałem zyskał tutaj wiele nowych możliwości. Powiązanie mediów elektronicznych i ciała jest możliwe oczywiście na wiele sposobów, kamera, dzięki wbudowanemu w nią systemowi śledzenia ruchu, ma tę zaletę (czy raczej „cechę”, bo w pewnych warunkach może się to okazać wadą), że nie jest inwazyjna i nie wymaga ubierania, nakładania specjalnych sensorów i innych. Na tę bolączkę cierpiały wcześniej systemy VR wymagające zawsze niewygodnego i od pewnego momentu zwyczajnie śmiesznego rynsztunku. Po prostu znajdując się w polu widzenia kamery, jest się monitorowanym, a parametry sposobu poruszania się modulują parametry otaczającego, medialnego środowiska. Gotowość systemu śledzenia ruchu na przyjęcie „przypadkowego przechodnia” (znajdując się w polu widzenia kamery, jest się „analizowanym”, bez względu na to, czy się tego chce, czy nie) wydaje się zresztą również bardzo ważna. Co ciekawe, systemy śledzenia ruchu pozwoliły zwrócić uwagę na to, że kamera rejestruje pewne informacje, pozornie nieobecne w wynikowym dwuwymiarowym obrazie. Istnieją algorytmy pozwalające zdekomponować z zarejestrowanego lub napływającego w czasie rzeczywistym strumienia kadrów
206
informacji o położeniu obiektów (w tym samej kamery – tego rodzaju algorytmy należą do nielicznych z grupy, wykorzystywanych przez filmowców: niekanoniczne zastosowania kamery ciągle pozostają w domenie twórców medialnych i... przemysłu rozrywkowego, choć film intensywnie je inkorporuje, zwłaszcza w czasach masowego przechodzenia na technologię 3D) w przestrzeni trójwymiarowej. Okazało się więc, że nie jest wcale takie oczywiste zrozumienie, czym tak naprawdę kamera jest i jakie daje możliwości. Aby spojrzeć na kamerę pod tym kątem, należy uzupełnić ją o program woalny, cyfrowy symbiont. Gdyby próbować ująć rzecz inaczej: ma się do czynienia ze zmianą efektu użycia kamery, rejestracja przestaje być mechaniczna, nie otrzymuje się już uproszczonej odbitki rzeczywistości, tylko coś (w zasadzie czystą informację), co można określić jako jej genotyp – to duża różnica w stosunku do mechanicznej reprodukcji (ktoś mógłby przecież powiedzieć, że kamera i tak jest narzędziem do rejestracji „ruchomych obrazów”). Można pokusić się o stwierdzenie, że „oko” kamery zostało uzupełnione o elementy systemu nerwowego. Zasadniczo systemy śledzenia ruchu nie są tu wyjątkiem – istnieje wiele przykładów na to, w jaki sposób technologie cyfrowe i komputery dostarczyły myślowych narzędzi pozwalających w inny, świeży sposób spojrzeć na otaczającą rzeczywistość – prawdopodobnie najbardziej spektakularnych rezultatów dostarczyło spojrzenie na mózg jako na komputer lub sieć komputerów. Niedawno dowiedziałem się, że jedna z firm produkujących sprzęt muzyczny wprowadza na rynek inspirowaną ekranami dotykowymi klawiaturę MIDI, klawiatura ta, poza możliwością typowego naciskania klawiszy, pozwala generować komunikaty sterujące instrumentem (lub czymkolwiek, co korzysta z protokołu MIDI) za pomocą dotknięć i gestów, coś, czego do tej pory nie było w zwykłych klawiaturach. Jeśli opisany instrument generuje przykładowo na bazie modelowania fizycznego dźwięk struny, to „szuranie” po klawiszach może uruchomić efekt analogiczny do przeciągnięcia palcem po strunie, a naciśnięcie klawisza można powiązać z tradycyjnym szarpnięciem. Wracając jednak do systemów śledzenia ruchu, opartych na kamerze, abstrahując od kwestii technologii, istotne jest w nich to, że tego typu koncepcje dawało się w jakiejś mierze opracować dużo wcześniej, niż to faktycznie nastąpiło. Rozpowszechnienie technologii cyfrowych umożliwiło po prostu spojrzenie na istniejący wcześniej świat z innej perspektywy. * Kamera pozostaje ciągle najbardziej rozpoznawalnym symbolem i narzędziem filmu (taśma definitywnie przestała nim być), jednak nie jest już własnością filmowców, ta sytuacja zmieniła się w momencie ukonstytuowania się sztuki wideo. Natomiast prawdziwa redefinicja tego, czym jest kamera, nastąpiła później, właśnie dzięki jej użyciu w systemach śledzenia ruchu i szeroko rozumianej sztuce mediów. Kamera jako sensor jest czymś jakościowo innym. Nie wątpię przy tym, że koniec końców dziedziny, takie jak film i fotografia zassą osiągnięcia nowych mediów (warto przy okazji wspomnieć, że wiele problemów pojawiających się np. przy produkcji efektów specjalnych dałoby się przynajmniej częściowo rozwiązać przez integrację tradycyjnych technik filmowych z osiągnięciami nowych mediów – powoli tak się zresztą dzieje). Mimo to sama sztuka wideo roszcząca sobie prawa do mówienia „prawdziwym” językiem kamery, w jakiejś mierze w kontrze do kwiecistego i literackiego języka filmu (niczym relacja języka i estetyki performance do języka teatru), jakkolwiek prawdziwy stosunek do filmu artystów wideo i artystów medialnych
207
w ogólności jest w rzeczywistości dużo bardziej skomplikowany – również przespała ważny moment. Przypadek sztuki wideo wydaje się zresztą szczególnie istotny, niezależnie od możliwości i realizacyjnego oraz technologicznego rozmachu i wyrafinowania niektórych prac, zasadniczo wideo uchodzi za warsztatowo niewymagającą dziedzinę medialnej twórczości (stąd wielu twórców parających się na co dzień innymi dziedzinami sięga też, z różnym skutkiem, po kamery), zwłaszcza że większość twórców ma dostęp jedynie do niemiłosiernie upraszanego (w sensie obsługi) sprzętu konsumenckiego, poza tym, pomimo wykorzystania technologii cyfrowych, większość twórców wideo stawia na, w jakiejś mierze, kojarzącą się z analogowością intuicyjność. Zatem można spotkać się przynajmniej z dwoma środowiskami, które, choć nierozerwalnie zżyte z kamerami (i świetnie się nimi posługujące w obrębie własnych języków, np. filmowi warto oddać sprawiedliwość, choćby ze względu na popchnięcie do przodu długo traktowanego po macoszemu 3D), nie wygenerowały jednak najważniejszej zmiany, jaka zaszła w myśleniu o kamerze na przełomie XX i XXI wieku. To, co napisałem o filmowcach i twórcach wideo, nie jest zresztą próbą wskazywania słabości. Jest raczej stwierdzeniem, że innowacje nie pojawiają się w sposób liniowo wynikający ze status quo. Często wiążą się z czymś, co pisarz Douglas Coupland określił żartobliwie jako „zejście na lepszą krzywą”, porzucenie części dotychczasowego dorobku i pozycji oraz rozpoczęcie nowej aktywności na polu wymagającym pewnych podstawowych aktywności, ale jednocześnie dającym potencjalnie lepsze perspektywy. Niemniej warto zastanowić się, w jakich warunkach takie innowacyjne koncepcje rzeczywiście powstają. Przypadek kamery nie jest wszak odosobniony, wiele innych, podobnie obciążonych tradycją obiektów doczekało się swoich postdigitalnych rewaloryzacji (dotyczy to np. instrumentów muzycznych i książki). Na ogół, jak się okazuje, wymagają one czegoś, co nazwałbym realną wiedzą o bazowej technologii, aby wydrzeć otoczeniu nieodkrytą jeszcze tajemnicę, trzeba umieć sięgnąć do jego trzewi. Ewolucja roli kamery i poszerzanie jej możliwości, które dokonały się dzięki technologiom cyfrowym i programowaniu, ukazują, w jaki sposób technologie cyfrowe mogą być użyteczne nie tylko same w sobie, ale jako narzędzie pozwalające na nowo spojrzeć na otoczenie. Nie odwołując się nawet do społecznych, psychologicznych czy kulturoznawczych teorii, nie sposób uciec od przeświadczenia o tym, że kultura współczesna jest w pewnej mierze kulturą unikania pogłębionego spojrzenia na rzeczywistość. Jest również kulturą konsumencką w tym sensie, że pewne produkty zaspokajają przewidywalnie pojawiające się (bo ekonomicznie uzasadnione) i rozpoznane potrzeby. W tej chwili wszyscy jesteśmy otoczeni coraz większą masą obiektów, które są traktowane i proponowane jako „gotowe”, producenci tych obiektów zachęcają do ich wykorzystania (skonsumowania). Może to być kamera, instrument muzyczny, formuła korzystania z Internetu (np. portal społecznościowy) – bez wątpienia można rozwijać, bazując na ich technologicznej podstawie (a zarazem ją porzucając), sposoby korzystania z tych obiektów. Można też założyć, że są one niewystarczające, niegotowe i eksperymentować z nimi, odkrywając ich nieznane wcześniej cechy – ostatecznie ciekawość świata jest nie tylko motorem postępu, ale i osobistego rozwoju.
208
Teorie mindware
Wokół interfejsów
Sztuka mediów
Społeczne i intymne interfejsy cyberkultury Michał Derda-Nowakowski
211
Intymny wielodotyk Monitorowanie user experience to dziedzina na tyle rozbudowana, że na jego podstawie można dziś profilować możliwe odpowiedzi na potencjalne zapytania użytkownika. Wkraczamy w świat inteligentnych agentów, dostosowanych do potrzeb i właściwości kognitywnej jednostki wchodzącej w interakcję. Można przewidywać poznawcze gesty i wyprzedzać je, a działania neuromarketingowe (jako element standardowej strategii korporacyjnej) stały się narzędziem badania relacji z klientem. Egzystencjalne tło doświadczenia użytkownika ujawnia się szczególnie w przypadku korzystania z przeglądarek w urządzeniach przenośnych. Standardowo rejestruje się nie tylko operacje semantyczne (wprowadzone frazy), ale również ilość, częstotliwość zapytań oraz dalsze działania użytkownika po otrzymaniu odpowiedzi. Bardzo ważnym czynnikiem jest geolokalizacja skojarzona wprost z otrzymanymi wynikami lub podpowiedziami otrzymywanymi już w momencie wpisywania frazy wyszukiwania. Google ma zadanie bardzo ułatwione – olbrzymią bazę danych o tym, czego ludzie szukają i jak to robią. Kiedy w 2010 wprowadzono usługę Google Instant, dynamiczne wyniki i przewidywanie dalszego ciągu zapytania stało się najbardziej rewolucyjną koncepcją współczesnych interfejsów wiedzy: Podczas analizy technicznej stwierdziliśmy, że użytkownicy piszą relatywnie powoli, ale szybko czytają. Naciśnięcie kolejnego klawisza trwa zazwyczaj 300 milisekund, natomiast spojrzenie na inną część strony – zaledwie 30 milisekund (dziesięć razy krócej!). Oznacza to, że wpisując zapytanie do wyszukiwarki, można zerkać na pojawiające się wyniki wyszukiwania1.
Problemem jest wprowadzanie danych do interfejsu, powoli zastępowane (szczególnie w sytuacji komunikowania mobilnego) coraz bardziej skutecznymi technikami rozpoznawania mowy. Wprowadzanie ciągu znaków pozostanie jednak najbardziej pożądanym sposobem, dzięki któremu użytkownik może skomunikować się z bazą danych. W grę wchodzą milisekundy, ale gdy przeliczyć je na liczbę zadanych Google zapytań w ciągu sekundy w skali globalnej, okazuje się, że chodzi w istocie o olbrzymią moc obliczeniową konieczną do podtrzymywania czynności życiowych cyfrowego ekosystemu. Ekonomia zapytań dotyczy więc nie tylko użytkownika i jego wygody, lecz również poważnych oszczędności, które mają duże znaczenie dla korporacji. Zwycięstwo zmysłu wzroku nad dotykiem jest jednak tylko pozorne. Trzeba stwierdzić, że multitouch i globalne uruchomienie zmysłu dotyku, mało czynnego do tej pory w komunikacji kulturowej, stanowi transgresję nie tylko w przestrzeni interakcji człowiek-komputer (HCI – human-computer interactions), lecz jest również przekroczeniem intymnej granicy pomiędzy ja i interaktywnym ekranem. Trzeba tylko poczekać na długofalowe skutki dotykania ekranów przez dużą część populacji, na efekty komunikowania się z cyberkulturowym światem w sposób najbardziej intuicyjny i bezpośredni. Touchpady i dotykowe ekrany stają się dziś jednymi z najważniejszych narzędzi HCI, ale również nieodłącznym elementem nowych interfejsów wiedzy. Ekonomia dotyku wiąże się dziś szczególnie z technicyzacją i zwiększaniem efektywności procesu udzielania odpowiedzi na pytanie zadawane bazom danych. Bezpośrednie dotykanie ekranów czy pośrednie gładzików z pominięciem znanych wcześniej manipulacyjnych peryferiów prowadzą do sytuacji, 1
<www.google.com/insidesearch/instant-about.html>.
213
w której zmysł dotyku stał się pełnoprawnym elementem strukturyzowania i operowania wiedzą abstrakcyjną, a nawet samym językiem. Zwiększyło się również znaczenie dotyku w procesie rejestracji obrazu, gdy ostrzenie odbywa się nie tylko przez oko i cały zmysł wzroku, ale przez bezpośrednie wskazanie palcem odpowiedniego obszaru ekranu. Bezpośrednie wskazywanie jest nawet bardziej ekonomiczne niż wyrafinowane śledzenie oka znane z profesjonalnych aparatów fotograficznych. Patrzenie stało się zatem wskazywaniem, w którym bierze udział ciało. Zastosowanie ekstensywnych form dotyku i towarzyszące temu mikroemocje są elementami strategii operowania treścią w kulturze – prowadzą do tego, że skóra (traktowana dawniej jako powierzchnia, która nie uczestniczy w dyskursie w sensie kognitywnym) staje się nieodłącznym elementem interfejsu. Derrick de Kerckhove pisze, że współcześnie: [...] elektryczność i jej liczne aplikacje w elektronice i technologiach bezprzewodowych przywracają dotyk jako wiodącą opcję zmysłową. Nie jest to jednak wcale oczywiste. Przynajmniej na razie. Słowo digit pochodzi z łaciny i oznacza ‘palec’ (digitus). W przeciwieństwie do swojej nazwy – to, co cyfrowe nie jest postrzegane jako „dotykowe”. Jednakże w sensie zaproponowanym przez McLuhana i przytoczonym powyżej, cała interkonektywna rzeczywistość cyfrowa jest oceniana jako rozszerzenie umysłu i kierowana przez całe ciało oraz umysł. Można powiedzieć, jak Walter Ong, który stworzył koncepcję „wtórnej oralności” wizualnej i słuchowej, że rozwijamy teraz „wtórną taktylność”2.
Procesy cyborgizacji mają charakter miękkich zmian, nie chodzi o to, by się „digitalizować” jako byty. Digitalizacja jest związana organicznie z „wtórną taktylnością”. Jesteśmy wyposażeni w świetne biologiczne narzędzia do komunikacji, które obejmują również skórę czy całą powierzchnię ciała. Potrzeba tylko zwiększenia poziomu interakcji: istniejesz albo wypadasz z gry. Skóra nie jest bierna w komunikacji, a całe ciało może uczestniczyć w interakcji, gdy nowe wrażenia, zapewniali Wii czy Kinect, przekraczają technologiczny próg zarysowany już na początku lat 80. XX w. przez interaktywne eksperymenty pod znamienną nazwą Very Nervous System3 autorstwa Davida Rokeby’ego, które artysta rozwijał przez następne kilkanaście lat. Dziś ciało staje się pełnoprawnym elementem interakcji. Zostało skomercjalizowane i zmakdonaldyzowane zarazem. Nie trzeba go wyposażać w rozszerzenia znane z konceptów rzeczywistości wirtualnej: hełmy z okularami, manipulacyjne rękawice i sensory, które przetwarzają biologiczne gesty w obszar manipulacji wirtualnym światem i prowadzą do spotkania z Innym-wirtualnym-Drugim. Zwolennicy rzeczywistości wirtualnej przegrali walkę o nowy język komunikacji kulturowej, o „poznanie somatyczne”, doświadczanie i myślenie przez ciało4. Zamiast rzeczywistości wirtualnej dziś wzbogaca się rzeczywistość fizyczną, a technologie augmented reality zawładnęły światem komunikacji mobilnej i designem nowatorskich rozwiązań mediów lokalizacyjnych (location media). Ciało samo w sobie stało się elementem interfejsu, dzięki mechanizmom wbudowanym w technologię wideo. Oko kamery, która podgląda ciało, jest jednak świadectwem prymatu ekstensji wzroku nad dotykiem. Ciało – najbardziej intymna warstwa interakcji ze światem (ukryte myśli są przecież najwyżej jej 2 3 4
D. de Kerckhove, Umysł dotyku. Obraz, ciało, taktylność, fotografia [w:] Kody McLuhana. Topografia nowych mediów, red. A. Maj i M. Derda-Nowakowski z udziałem D. de Kerckhove‘a, Wydawnictwo Naukowe ExMachina, Katowice 2009, s. 46. Zob. D. Rokeby, Very Nervous System, <http://homepage.mac.com/davidrokeby/ vns.html>. <www.jaronlanier.com>.
214
pretekstem, a mowa zewnętrznym upostaciowieniem reguł konwersacji) zostało zaanektowane bardziej niż dotyk. Wciąganie ciała w interakcję ma również wymiar złowrogi – ciało dostarczać może nadmiarowych biometrycznych i fizjologicznych informacji, stając się ofiarą systemu kontroli. Publiczne bicie serca W roku 2010 zdefiniowano nowe cyberkulturowe zjawisko groźniejsze dla prywatności od kodów RFID zawartych w papierowych arkuszach banknotów euro czy dolara, których obieg może być śledzony; bardziej złowieszcze od kodów RFID w oponach samochodowych i wszytych w odzież, umieszczonych w dowodach tożsamości i paszportach. Jest nim traitorware – systemy identyfikacji i wszelkie działania technologiczne, które do codziennych czynności i wytworów powstałych za pomocą technologii cyfrowych dodają odpowiedni znacznik identyfikujący (bez wiedzy i woli użytkownika). Nie jest to jednak konfetti z kodem przypisanym do posiadanego egzemplarza Tasera – teoretycznie niezabijającego paralizatora, który wystrzeliwuje drut oplatujący napastnika, aby wysłać w głąb jego ciała kilka impulsów wysokiego napięcia, a zarazem rozpyla znaczniki na miejscu strzału (oddanego oczywiście w obronie własnej) w celu zidentyfikowania właściciela tej broni. Indywidualny znacznik produkują drukarki laserowe, systemy DRM działają jak wirusy – instalując znaczące teren rootkity, rejestratory audio i wideo wytwarzają różne metadane, urządzenia przenośne gromadzą w pamięci informacje, o których wolałoby się zapomnieć (np. wszystkie punkty lokalizacji telefonu z ostatniego pół roku, zgromadzone niekoniecznie świadomie przy włączonej funkcji lokalizacyjnej z wykorzystaniem GPS). Czasem systemy te udostępnia się częściowo użytkownikowi – może on na przykład zdalnie namierzyć włączony telefon, a nawet zablokować trwale jego pamięć (na przykład w przypadku kradzieży). Blokadę telefonu może również wykonać sprzedawca, gdy stwierdzi, że jest on użytkowany „niezgodnie z przeznaczeniem”. Wszystkie tego typu technologie mają w istocie podwójne zastosowanie. Gdy jednak urządzenie z dotykowym ekranem (zgodnie ze specyfikacją US Patent 20100207721)5 w celu autoryzacji użytkownika stosuje mechanizm nagrania jego głosu, zarejestrowania twarzy i lokalizacji oraz zapisu rytmu jego serca zostaje przekroczony horyzont oczekiwań poznawczych producentów w ramach monitoringu konsumenckiej lojalności. Pozornie neutralne urządzenie staje się zatem elementem systemu, który zaczyna rozumieć fizjologiczne parametry użytkownika. Do tej pory intymne doświadczenie taktylne, które – co prawda – ma swe ekstensje w publicznych bazach danych i systemach śledzenia użytkownika czy po prostu w widocznych na zewnątrz interakcjach, staje się organiczną częścią systemu kontroli związanego bezpośrednio z ciałem i parametrami życiowymi obywateli cyberkulturowej rzeczywistości. Prywatne, publiczne i intymne spotyka się na powierzchni przewodzącego prąd ekranu. Parametry pracy serca można monitorować również za pomocą interfejsu wideo. Rejestracji czynności serca w tak nietypowy sposób pierwszy dokonał Rafael Lozano-Hemmer w projekcie Pulse Phone – aplikacji na iPhone’a, która mierzy puls i wyświetla wykres jego pracy w czasie rzeczywistym dzięki wbudowanej w urządzenie kamerze i diodowemu podświetlaczowi, który prymarnie służy jako lampa błyskowa aparatu fotograficznego w telefonie. Wystarczy przytknąć palec do telefonu, by został prześwietlony silnym światłem, które wystarczy do optycznego sprawdzenia pulsu, aby następnie dokonała się 5
Por. Serwis Electronic Frontier Foundation, <https://www.eff.org/search/site/ Traitorware%20apple>.
215
analiza obrazu i wizualizacja wyników. Twórca zastrzegł, że nie jest to urządzenie, które może służyć jako instrument medyczny, jest bowiem tylko „artystą-kardiologiem”. Projekt wpisany jest w cały zestaw prac poświęconych wizualizacji próbek fizjologicznej aktywności organizmów, by łączyć je w komparatystyczną sieć społecznego nasłuchu czynności życiowych, odcisków palców czy oddechów (Pulse Index, Pulse Room czy instalacje w przestrzeni miejskiej Pulse Park, Pulse Tank, Vectorial Elevation)6. Przeniesienie dyskretnych wewnętrznych procesów służących do podtrzymywania życia, ekstensja fizjologii do przestrzeni publicznej (nie tylko galeryjnej) stanowią nową jakość w rozumieniu prywatności czy intymności. Są również manifestacją wielości usieciowionych oddechów czy bicia serc. Świadectwem życia, które podlega procesom cyborgizacji. Cyberkultura pełna jest paradoksów. Gdy porówna się poczucie krzywdy po kradzież awatara w Second Life, która jest również zawłaszczeniem intymnej tożsamości (np. pierwszorzędnych cech płciowych, specjalnie spreparowanych, gdyż awatary są pozbawione narządów płciowych – trzeba je zaprojektować lub kupić), z bezwiednym udostępnianiem informacji o prawdziwym ciele i życiu. Widać wyraźnie dysproporcję pojmowania intymności, w której uwidacznia się dysonans i przyznanie wyższej wartości wirtualnym tworom podlegającym prawom autorskim niż biologicznym bytom nieobjętym copyrightem, ale najwyżej „prawem do twarzy”. Przenoszenie do przestrzeni miejskiej danych o funkcjonowaniu prawdziwego organizmu i dzielenie się nimi w czasie rzeczywistym może być traktowane jako polemika z tabu dostępu do wnętrza ciała zarezerwowanego jedynie dla personelu medycznego i w gruncie rzeczy z technicyzacją medycyny. Naprawdę jest to jednak problem związany z pojmowaniem i własnością tożsamości, szczególnie widoczny w Facebooku, który rości prawa autorskie do tożsamości w zamian za udostępnienie agory dla życia publicznego czy prywatnych spotkań rejestrowanych skrupulatnie przez system, który stale podpowiada nowych przyjaciół. Timeline – od urodzin po współczesność Dbający o swoją tożsamość Mark Zuckerberg, który potrafi uderzyć paparazzich, gdy podchodzą za blisko, ogłosił całemu światu kres prywatności jako czegoś niemożliwego do zrealizowania i nieprzydatnego. Tymczasem pojawił się Timeline – przegląd całego życia, który niezabezpieczony i niefiltrowany na wyjściu danych jest prawdziwą tożsamościową bombą samobójcy. Standardowe w sieciach społecznościowych dane typu CV: o edukacji, aktualnej pracy i osiągnięciach są już mało wystarczające. Niedoświadczonym użytkownikom, komuś bez wyobraźni lub przyjętej i wypracowanej w konfiguracyjnym trudzie strategii istnienia w FB trudno jest nie mieć zaufania do właścicieli serwisu oraz ich szczerych intencji. Tym, którzy nie wiedzą, jak się zachować w świecie relacji społecznych, interfejs Facebooka podpowiada, żeby dookreślić swoją linię życia i uszczegółowić Timeline o przebieg służby wojskowej, z kim przebywaliśmy w ciągu całego życia, jak długo to trwało, czy żyjemy w sformalizowanym związku, czy mamy dzieci, jakie posiadamy zwierzęta, kogo straciliśmy i czy trwa jeszcze praca żałoby konieczna do wyjścia z melancholii, kiedy się przeprowadziliśmy, kupiliśmy dom, kto był naszym współlokatorem, jaki posiadamy pojazd, kiedy mieliśmy złamaną rękę czy nogę, zabieg chirurgiczny i przechodziliśmy schorzenia. Jeśli ten zapis poda się do wiadomości publicznej, na pewno skrzętnie skorzystają z niego niekoniecznie rządy czy Wielki Brat, ale na pewno marketingowcy, a z całą pewnością specjaliści weryfikacji danych pracujący dla agencji ubezpieczeniowych. Jeśli tego przekazu nie chce się upubliczniać i jest 6
Zob. <www.lozano-hemmer.com>.
216
skierowany tylko do rodziny lub najbliższych przyjaciół, lepiej zadzwonić lub spotkać się bez Facebooka. Wyjątkiem może być choroba, która dzieje się jako społeczny dyskurs. Wówczas FB ma niesamowitą moc terapeutyczną. Trzeba jednak zauważyć, że jeśli przekaz jest nawet wyłącznie dla siebie samego – jako rodzaj cyfrowego pomocnika pamięci – jest on również istotną treścią dla analityków FB oraz zewnętrznych firm. Dla korporacji wiedza o 800 milionach kontaktujących się ludzi ma pierwszorzędne znaczenie dla jakości tworzonych eksperckich opinii, prognoz trendów emocji i zdolności nabywczej rozlokowanej na wielu mapach populacji obecnej w systemie. Portal FB również do tych kierowanych „do samego siebie” treści ma równorzędne prawa autorskie jak w przypadku treści upublicznianych. Facebook – zgodnie z kontraktem – ma prawa nie tylko do materiałów, które użytkownicy zostawiają w systemie, ale de facto posiada również prawa autorskie do ich tożsamości. Możliwa do wykonania, dawniej dość intuicyjna i hipostatyczna mapa wzorów kultury, zaczyna wypełniać się globalną informacją o połączeniach między komunikującymi się bytami i treścią tych połączeń. Takiego badania antropologicznego dużych zasobów ludzkich nie dało się wcześniej wykonać ze względu na ograniczenia techniczne i metodologię prowadzenia standardowych badań społecznych. Niewidzialna granica Obecność kodów i znaczników RFID w produktach konsumpcyjnych można wytłumaczyć logistyczną koniecznością, gdy korporacyjny system dystrybucji domaga się wiedzy o lokalizacji rzeczy, będących jego własnością. Logistyka ma swoje prawa, a wiedza o aktualnej dyslokacji pozwala na lepsze zarządzanie wspomagane narzędziami podejmowania decyzji. Wprowadzenie biometryczne paszportów z chipem RFID można wytłumaczyć zwiększeniem bezpieczeństwa obywateli, popularność kart zbliżeniowych wygodą, a brak zabezpieczeń przed niepowołanym użyciem danych przemilczeć, gdy niezabezpieczone przed falami radiowymi specjalnym opakowaniem czy klasyczną klatką Faradaya stają się źródłami coraz liczniejszych przestępstw. Również ciało staje się zatem obiektem biometrycznych technik, jest kluczem do zamków, który w niczym nie przypomina neutralnych narzędzi kontroli dostępu, jakie zwykło się uważać za prywatne środki uzyskiwania prawa wejścia na własne lub dzierżawione terytoria. Ciało jako klucz jest istotnym elementem tożsamości, która otwiera drzwi i pozwala uzyskać dostęp do systemów informatycznych. Tożsamość związała się z dostępem do przestrzeni i danych. Interaktywne ciało łatwo zredukować do skóry jako powłoki – traci ono pozycję wypracowaną w przedcyberkulturowym paradygmacie. Było ono przede wszystkim środkiem utrzymywania dystansu pomiędzy bytami, a także wpływania na kształt granicy pomiędzy tym, co publiczne, prywatne i intymne. Zredukowanie ciała do skóry jest redukcją do czysto fizjologicznych parametrów powłoki. Sens istnienia skóry to ochrona ciała w analogowych interakcjach. Problem ten analizuje artystka Paula Gaetano Adi, tworząc Alexitimia. Autonomous Robotic Agent (2006)7 – robotyczny byt, który posiada charakterystykę ludzkiej skóry, a jedyną jego odpowiedzią na otaczające go środowisko i próby interakcji jest pocenie się przez pory na powierzchni powłoki – „nie może się poruszać, widzieć, nie jest w stanie wydawać dźwięków”. Aleksytymiczny (niemożliwy do językowego wyrażania uczuć i emocji) proces komunikacji wyklucza antropomorfizm lub robotyczność wyglądu. Komunikacja zachodzi wyłącznie przez dotyk, 7
<www.paulagaetano.com.ar/parts/alexitimia/Alexitimia.htm>.
217
a sprzężenie zwrotne jest również bezpośrednim następstwem dotyku, który taką komunikację dodatkowo stymuluje przez zaistnienie reakcji fizjologicznej. Również w świecie społecznym następuje redukcja funkcji do pewnego rodzaju aleksytymiczności. Użytkownicy stają się w istocie multisensorycznymi i mobilnymi terminalami monitoringu rzeczywistości z taktylnymi końcówkami, dzięki którym dostarcza się informacje dla systemów dystrybucji sensu. Znikanie albo anonimizacja Prawdziwą terapeutyczną pomocą do przerwania szaleństwa sieciowej socjalizacji jest Web 2.0 Suicide Machine. Serwis pomaga skutecznie i po kolei zlikwidować wszystkie wpisy, znajomych i konta w Facebooku, Twitterze, LinkedIn czy Myspace. Jest to bardziej skuteczne niż szybkie usunięcie konta, do którego w przypadku Facebooka i tak można się jeszcze zalogować przez jakiś czas. Jest to pokusa, która często przyczynia się do powrotu „samobójcy” na łono cyberkulturowo-społecznego obiegu treści. Zanim wykona się „Sign out forever!”, by powrócić do rodziny i przyjaciół, trzeba jednak zdać sobie sprawę z niesamowitej wygody interfejsu, który poprawia produktywność procesu cyfrowego samobójstwa. Jest narzędziem nowego typu symbolicznej eutanazji, które skraca drogę w niebyt prawie dziesięciokrotnie, kurczy czas czyszczenia danych i systemowej amnezji, wspierając nowe sposoby zapominania przez wykasowanie wirtualnej pamięci kulturowej. Odpowiedni skrypt wykonuje za samobójcę całą brudną robotę kasowania-wszystkiego-po-kolei wobec upadania Dasein, troski, trwogi i ostatecznego kresu w byciu ku cyfrowej śmierci. Po ostatecznym wylogowaniu ze społecznej wymiany pozostaje rodzina, domowe zajęcia i w końcu praca, a w terminalnym rozrachunku wirtualne miejsce pamięci w jednym z wielu cyberkulturowych cmentarzy. Podobnie jak komunikacja mobilna zmieniła całe zestawy tradycyjnych norm i wzorów kultury w zakresie rozumienia sfery prywatnej i publicznej, tak nasycenie komunikacji kulturowej sposobami wymiany treści wypracowanymi w sieciach 2.0 spowodowało powstanie nowych – wpisanych w interfejsy – rytuałów, które zmieniają obraz stosunku człowieka do spraw egzystencjalnych. Cyfrowa eutanazja-samobójstwo staje się narzędziem powrotu do prywatności jako pozasieciowej koncepcji bycia w świecie. Jest to gest powrotu do dawnych definicji, rytuał analogizacji, być może konieczny do powtarzania po wielokroć, gdy zbyt mocno uwidacznia się linia czasowa (timeline) jednostki na tle społecznie generowanego za pomocą nowej technologii ruchu znaczeń. Możliwa do wykonania w przeszłości, dawniej dość intuicyjna i hipostatyczna mapa wzorów kultury zaczyna wypełniać się globalną wiedzą o egzystencji, komunikacji i ekonomii – antropologiczną treścią oraz charakterystyką tych połączeń w znaczeniu socjologicznym i makroekonomicznym. Takiego antropologicznego rozpoznania dużych „zasobów ludzkich” nie dało się wcześniej wykonać ze względu na ograniczenia techniczne i metodologię prowadzenia standardowych badań społecznych. Możliwości wizualizacji i bazodanowego badania treści komunikującej się ludzkości mają dziś znaczenie strategiczne, tak w sensie politycznym, wojskowym, jak i ekonomicznym. Podobnie zresztą jak strategie wyszukiwania informacji, które decydują o kształcie wiedzy i edukacji. Nie ma znaczenia to, czy ma się do czynienia z pełnotekstowym wyszukiwaniem w całym zarejestrowanym dorobku ludzkości, czy tylko z małym jego wycinkiem. Ważny jest sposób, w jaki się szuka i jakim kognitywnym procesom się poddaje, do czego można się przyzwyczaić i jakich pytań już nie zadawać. Interfejsy nie są neutralne, choć często „znikają”, stają się niewidoczne i zaszyte w gąszczu ubicomp, pervasive media i nadchodzącej ery Internet of Things – w wielu profetyczno-spiskowych teoriach, synonimie zbliżającej się apokalipsy,
218
a przynajmniej kresu człowieczeństwa. Dzisiaj faktem jest, że interfejsy mogą być ergonomicznie, lepiej dostosowane do użytkownika niż jego przygotowanie ewolucyjne do kognitywnych właściwości nowych systemów. Istnieje jeszcze inna ścieżka jako strategia wyłączenia z systemu globalnej obserwacji i liczenia kroków użytkownika. Może poddać się rytuałom technologicznej anonimizacji albo skorzystać z całego pakietu szamańskich praktyk obrony przed złymi duchami. W tym jednak przypadku techniczne rytuały są skuteczne nie tylko w wymiarze psychologicznym i społecznym. Surveillance Self-Defense Project jest zestawem czynności, które należy przeprowadzić w celu zachowania prawa do prywatności w konektywnym świecie. Electronic Frontier Foundation proponuje tak naprawdę używanie pakietu do samoobrony, do ochrony tożsamości, a nie tylko prywatności czy intymności działań sieciowych. W istocie jest to prewencyjny pakiet ratunkowy dla sieciowego życia – survivalowy niezbędnik każdego użytkownika współczesnej kultury, a zarazem rzeczywistości. Trzeba bowiem zabezpieczać swój ekosystem przed niebezpieczeństwami: stosować kryptografię w codziennej komunikacji wykorzystującej pocztę elektroniczną, komunikatory tekstowe, głosowe i wideo; szyfrować dyski i wszelkie nośniki informacji, używać wirtualnych sieci prywatnych i anonimizującego obecność w Sieci systemu Tor, który zaciera ścieżkę połączeń, zrywa z ukonkretnieniem jednostki i przywraca anarchistyczny wymiar komunikacji pomiędzy wolnymi obywatelami Sieci – netizens. Cały ten zestaw oparty jest na działaniach zakrywających obraz rzeczy, na szyfrowaniu nie tylko treści, ale i samego procesu komunikacji. Na zachowaniu prywatności i intymności nawet w sytuacji społecznego komunikowania się ze światem, słowem na zachowaniu prawa do korespondencji, rozumianej jako wymiana znaczeń poza czysto epistolarnym wymiarem. Zestaw survivalingowy opiera się wreszcie na przedinternetowej sieciowej ideologii anarchii kryptograficznej8, której historia sięga czasów pierwszych zmagań usieciowionych technologicznych Prometeuszy, oddających w ręce obywateli (jako narzędzie praw człowieka i jako broń) matematykę szyfrów dostępną do tej pory jedynie dla władzy. Nieszczelny ekosystem Zwykłe komputery – jako produkty konsumenckie – ze zrozumiałych względów nie spełniają norm bezpieczeństwa stawianym sprzętom klasy Tempest9, które w krajach NATO są dostępne jedynie dla wojska, agencji rządowych i specjalnych oddziałów policji. Spełnianie wymogów standardów Tempest zapewnia również bezpieczeństwo komputera wobec potencjalnego przechwycenia sygnału pochodzącego bezpośrednio z karty graficznej, monitora czy podłączonych do sprzętu kabli UTP albo sieci elektrycznej, które można odczytać z odległości kilkuset metrów za pomocą odbiorników „emisji ujawniającej”10. Istnieją sytuacje, gdy cyberkulturowa komunikacja może być całkowicie przeźroczysta za sprawą szpiegostwa sygnałowego. Wszelkie formy zabezpieczeń 8
9 10
Zob. T.C. May, The Crypto Anarchist Manifesto [1988] <www.activism.net/cypherpunk/ crypto-anarchy.html>. Por. strona Philipa Zimmermanna, autora systemu szyfrowania Pretty Good Privacy (PGP) <www.philzimmermann.com/EN/background/ index.html>. Zob. TEMPEST Certification Program [Serwis National Security Agency] <www.nsa. gov/applications/ia/tempest/index.cfm>. M. Wiśniewski, Emisja elektromagnetyczna. Analiza zagrożeń dla poufności danych, Politechnika Poznańska 2000. Plik PDF dostępny w serwisie IPSec.pl. Bezpieczeństwo i audyt systemów informatycznych <http://ipsec.pl/files/Contrib/EmisjaUjawniajaca. pdf>.
219
mogą nie mieć sensu, gdy zostaje wybrany cel takiego ataku – interfejs komputera osobistego „czytany” jest w czasie rzeczywistym. Jest to rodzaj swoistego reality show reżyserowanego przez użytkownika – mimowolnego screencastu ograniczonego ramami ekranu i wyświetlanych treści. Sposób ten nie pozwala na ingerencję w pamięć, zgromadzone dane i proces ich przetwarzania. Nieznane są komendy i gesty użytkownika, a jedynie ich efekty. Jedno jest pewne – to technologia, a nie kultura dyktuje w tym przypadku zakres prywatności czy intymności. W celu przechwycenia emisji ujawniającej trzeba bardzo starannie wybrać cel – nie można w ten sposób podsłuchiwać wszystkich. Zwykły i niewinny użytkownik jest zagrożony w minimalnym stopniu tego typu inwigilacją, nie ma jednak szans na w pełni bezpieczną komunikację – pozostaje mu jedynie skonfigurowanie systemu, software’owe „utwardzenie” sprzętu. We współczesnej kulturze znaleźć można coraz mniej sposobów obrony przed działaniem cudzych spojrzeń. Czasem jedynym ratunkiem jest ich unieszkodliwienie. National Security Agency w jednym ze swoich poradników, który zatytułowano wdzięcznie Hardening Tips11, podaje szczegółową instrukcję poprawienia bezpieczeństwa komputerów przez ich odpowiednią konfigurację. Instrukcja zawiera wiele pożytecznych wskazówek dotyczących konfiguracji systemu wraz z wyraźnie sformułowaną sugestią, że do sprostania zadaniu jest potrzebna również skuteczna modyfikacja hardware, która zgodnie z poradnikiem polegać ma między innymi na wymontowaniu przez biegłego w sztuce technika wszystkich urządzeń radiowych znajdujących się wewnątrz komputera (WiFi i Bluetooth), trwałym wymontowaniu mikrofonu i kamery z laptopa (podaje się jeszcze możliwość zaklejenia kamery taśmą, co jednak nie chroni przed podsłuchem audio), a nawet unieczynnienia portów USB. Bezpieczeństwo uzyskuje się zatem przez zablokowanie 90% możliwości komunikacyjnych komputera, a co za tym idzie – przez odcięcie użytkownika od funkcjonalnego korzystania ze środowiska sieciowego. Kontrola ryzyka i rachowanie bezpieczeństwa znaczy zatem prawie całkowite unieobecnienie użytkownika w sieci konwergentnych usług z pozostawieniem łączności kablowej, ale kompletnym odizolowaniem go od teleobecności i wielu typów komunikacji interaktywnej. Pojawiające się przypadki nielegalnego monitoringu za pomocą wbudowanych do laptopów kamer kończą się w sądach. Najsłynniejsza jest sprawa rodziny Robinsonów przeciw Lower Merion School District, gdy wyszło na jaw, że na skalę masową przez dwa lata od 2009 do 2010 roku szpiegowano uczniów, wykorzystując program pomocny do rejestrowania potencjalnych złodziei laptopów przekazany dzieciom (również do użytku domowego). WebcamGate uświadomiła istotne problemy związane z prawnymi aspektami naruszania prywatności, które do tej pory były znane jedynie z plagi nielegalnych instalacji kamer internetowych. Był to nowy rodzaj candid camera w miejscach publicznych, na przykład toaletach, który rozplenił się na przełomie wieków wraz z popularnością programów reality show. Publiczne, prywatne, intymne Do działania polisystemu Sieci 2.0 jest potrzebny stały dopływ treści i lojalni użytkownicy. Sieci społecznościowe spełniają funkcję monitoringu rzeczywistości kulturowej w czasie rzeczywistym, zapewniając użytkownikom platformę komunikacji i narzędzia do tworzenia sieci połączeń. Efektem ubocznym jest poddanie się kontroli – dla jednych konieczna cena zapłaty za kontrakt socjalizacji 11
Serwis National Security Agency <www.nsa.gov/ia/_files/factsheets/macosx_hardening_tips.pdf>.
220
czy rzecz niezauważalna, dla innych podstawa do trzymania się z boku i ucieczki spod Orwellowskiej władzy. Stały dopływ treści do systemu umożliwiło popkulturowo akceptowane przedefiniowanie znaczeń przestrzeni prywatnej, publicznej i intymnej – antropologicznej triady, której źródeł redefinicji należy szukać pod koniec lat 90. XX w., w czasach postępującego wystawiania się na świat z ofertą komunikacji i ogłaszania obecności w nowych rejonach kultury. Szczególnie dotyczy to pojawienia się kamer internetowych i rozprzestrzenienia koncepcji always on, stałego (lecz ciągle stacjonarnego) uczestnictwa w cyberkulturze jako kontaktu przez interfejs wideo ze swoistą poklatkową segmentyzacją czasu, a właściwie jego spowolnieniem do 15 klatek na minutę z powodu małej przepustowości łącz. Poklatkowość nadawania relacji z antropologicznej codzienności sprzyjała oswajaniu technologii i – mimo stwarzania pozorów ciągłości czasu rzeczywistego w komunikacji – nie wydawała się opresywna. Za sprawą spowolnienia życia pod okiem kamer, dzięki swoistej antytelewizyjności tych środków komunikacyjnych spowodowanej małą przepustowością i rozdzielczością kanałów komunikacji, przez lejek informacyjny nowych technologii przelewała się jedynie wąska struga danych. Później, gdy teleobecność stała się oczywista i została wbudowana do komunikatorów internetowych, gdy zwiększyła się rozdzielczość i możliwości przekazu danych w szerokich pasmach, a obrazy przyspieszyły, zniknął trend always on. Połączenie nie jest już atrakcyjne samo w sobie. Realizowane jest wtedy, gdy zachodzi taka potrzeba, a ponieważ zawsze jest możliwe, staje się czymś mniej istotnym. Miejsce interfejsów wideo połączonych z Siecią i stacjonarnych lifelogów oraz relacji na żywo, które były do obejrzenia tu i teraz (i nigdy później), zajęły bazy danych YouTube, Flickera i Facebooka z treściami, które nie mieściły się na wąskiej powierzchni bloga czy prywatnego miejsca w Sieci. Procedurę nadawania audycji zastąpiono społecznościowym dzieleniem się treścią wyprodukowaną prywatnie jako user generated content i skopiowaną skądkolwiek, by przekazać ją dalej zgodnie z ideologią społecznościowego sharismu. Pod koniec lat 90. XX w. świat ogarnął rytuał montowania kamer w różnych „punktach z widokiem”. Montowano je na balkonach, na plażach, placach, domach. Był to prawdziwie amatorski ruch swoiście pojmowanej glokalizacji, która łączyła usieciowienie ze światem rzeczywistym, mimetyczne relacje z sieciowych kamer były ekstensją prywatności porównywalną z dostępnymi już wtedy niekomercyjnie obrazami z satelitów. Pojawiła się możliwość wielości oglądów i przedefiniowania znaczenia mapy. To odkrywanie świata dla Sieci objęło również przestrzeń prywatną habitatów, a nawet intymną dziedzinę łóżka, na które została skierowana prywatno-publiczna kamera jako instytucja nowoczesności i ducha czasu. Bez wątpienia cyberkulturowe rytualne działania użytkowników Sieci i związana z nimi sakralizacja interfejsu wideo jako narzędzia docierania do prawdy o świecie przyczyniły się do przemodelowania koncepcji wstydu. W tym sensie funkcjonowanie interfejsu wideo było raczej narzędziem ideologii „naturyzmu” w nowym ekosystemie niż działaniem „pornografizującym” rzeczywistość. Bardzo szybko pojawiły się również pierwsze „wirtualne przyjaciółki” i serwisy z interaktywnymi peep show – całkowicie amatorskie i niezależne oraz czysto biznesowe z konkretnym celem finansowym. Pornografia była jednak nieciągła: działała na chwilę lub przez chwilę – obraz zamrażał się i udawał rzeczywistą relację. Poza ogólnie dostępną Siecią zaplanowano w sposób systemowy zakres i kąt widzenia kamer, które na skalę masową zaczęły wypełniać ulice miast, a chroniące porządku (i obywateli) systemy monitoringu CCTV rozwinęły się we wszystkich miejscach publicznych i środkach komunikacji.
221
Nie przez przypadek trzy trendy: wspierania voyeuryzmu (amatorskie czy biznesowe), prospołecznego udostępniania obrazów rzeczywistości przez użytkowników Sieci oraz gigantycznego rozplenienia się systemów publicznej obserwacji, wyznaczyły początek narracji reality show i narodziny Big Brothera. Relacjonujące rzeczywistość interfejsy wideo opanowały rozwinięte gospodarczo terytoria całej planety w równym stopniu w sensie amatorskim i społecznym oraz w postaci narzędzi kontroli/monitoringu czy źródeł nowych typów rozrywki. Wymienione wyżej trzy trendy, zrodzone z kulturowego wykorzystania technologii wideo, towarzyszyć będą dalszemu rozwojowi cyberkultury i kształtowaniu się społeczeństwa informacyjnego w bardziej złożony i konwergentny sposób. Jednak problemy w definiowaniu intymności, prywatności i sfery publicznej w sensie kulturowym, technologicznym, prawnym i politycznym, które wygenerowały się w związku ze stosowaniem tych technologii, są ciągle aktualne i powinny być podstawą do wszelkiej refleksji nad kondycją cyberkultury. Nie można tu również nie wspomnieć pionierskich działań Steva Manna, który zaczął z premedytacją podglądać świat, ponieważ świat nieustannie go podgląda. Zrodziła się ideologia sousveillance jako subwersywna praktyka artystyczna i działanie polegające na bezpośrednim hackowaniu kulturowych wzorców12 dzięki ciągłej rejestracji otaczającej rzeczywistości za pomocą cyborgicznej kamery zamocowanej na głowie. Wkroczenie prywatności oraz intymności w przestrzeń mniej lub bardziej publicznej komunikacji w serwisach społecznościowych jest przewrotem w definiowaniu wstydu na skalę większą niż rewolucja seksualna lat 60. XX w. Trzeba tu przypomnieć znaczenie „demokratyzacji voyeuryzmu” w kontekście banalizacji środków kontroli opisywanych przez Paula Virillio: „Wirtualna inflacja dotyczy dziś nie tylko ekonomii produktów, »finansowej bańki«, ale naszego rozumienia relacji ze światem. Dlatego właśnie systemowe ryzyko nie jest już ograniczone do załamania się biznesu czy banków […] Wydaje mi się, że tym, czego możemy się jeszcze bać, jest zbiorowa utrata zdolności widzenia, ślepnięcie ludzkości, bezprecedensowa możliwość porażki faktów i związanej z nią dezorientacji w naszych relacjach z realnością”13. Proces ten zawsze można odwrócić i zastosować te same narzędzia, które służą kontroli jako broń w rękach obywateli. Na styku stosowania techniki w taktyce władzy i strategiach obywateli zawsze będzie dochodziło do politycznego sporu. Szczególnie, gdy jedni i drudzy posługują się tą samą technologią. Historia sporu o technologię, jej otwartość i prawo do korzystania z narzędzi jest podstawą mitu Sieci jako obszaru wolności – neutralnych protokołów, neutralnej sieci i neutralnych maszyn, które mogą służyć w równej mierze do wspierania obszaru dobra wspólnego14, jak i jego zawłaszczania. Wszelkie próby redukowania ryzyka i odgórnego ograniczania zakresu zastosowania technologii muszą zakończyć się powstaniem systemu całkowitego monitoringu nie tylko cyberkultury, nie tylko tego, co widzialne i możliwe do penetrowania za pomocą interfejsów wideo, ale i całej rzeczywistości społecznej. Z tego powodu konieczne jest utrzymanie niezawisłości maszyn, ich neutralności i wielości zastosowań, również tych potencjalnie niebezpiecznych lub z jakichś powodów uznanych za niewłaściwe. Cory Doctorow, jeden z najbardziej znanych blogerów 12 13 14
Szczegółową dokumentację tych działań znaleźć można [w:] S. Mann, Personal Web Page <http://wearcam.org/steve.html>. P. Virilio, The Visual Crash [w:] Ctrl[Space]. Rhetorics of Surveillance from Bentham to Big Brother, red. T.E. Levin, U. Frohne, P. Weibel, MIT Press, Cambridge (MA) 2002, s. 112 [tłumaczenie własne]. Zob. J. Hofmokl, Internet jako dobro wspólne, Wydawnictwo Akademickie i Profesjonalne, Warszawa 2008.
222
i założyciel BoingBoing, jest zdania, że próby regulacji tej przestrzeni kultury muszą skończyć się pozbyciem użytkownika władzy nad „zawirusowanym” systemem15, a w konsekwencji upadkiem statusu użytkownika i ostateczną klęską cyberkultury jako terytorium starcia wielu sensów. Trzeba dodać, że takie rozwiązania stanowić mogą również blokadę prac nad tworzeniem systemów „antywirusowych”, których istnienie jawi się jako radykalnie sprzeczne z ustalonym w taki sposób porządkiem deskrypcji rzeczywistości. Antywirusowe mindware Do tej pory przywracanie technologicznej homeostazy w nowomedialnych ekosystemach jest realizowane najczęściej przez działania subwersywne inżynierów, artystów i użytkowników. Istnieją liczne rytuały pomocne w znalezieniu miejsca w nowomedialnym środowisku. Ekologia nowych mediów jest regulowana przez technologię sprzętu, oprogramowania i technologiczno-społeczną hybrydę mindware jako sieciowo-konstruktywistycznego sensu człowieczeństwa. W jego skład, oprócz semiozy i przemian symbolicznych, wchodzą cyberkulturowe gesty i rytuały: hackowanie elektroniki przez przeprogramowanie funkcji, jailbraking jako metoda indywidualizacji pamięci, wardriving jako sposób uzyskania dostępu do sieci, modding jako taktyka estetyczna wynikająca z konieczności indywidualizacji interfejsów, ale zarazem personalizowania standardowych parametrów komunikacyjnych. W samym sercu mindware znajduje się sharism16, który nie ma nic wspólnego z „kulturą daru”, prowadzącym do zguby nowomedialnym potlaczem. Jego znaczenie wynika bowiem (i to w równym stopniu) z obywatelsko-konserwatywnej koncepcji „dzielenia się talentami” oraz lewicowego przekonania o konieczności dokonania rewolucji w zakresie własności „środków produkcji” oraz własności produktów powstałych dzięki tym środkom. Chodzi o współdzielenie sensów na własne życzenie i ryzyko (w tym ekonomiczne), gdy stosuje się rozwiązania Open Source, Creative Commons czy copyleft. Mindware jako społeczna gra jest nie tylko treścią, ale również sensem kultury, który umocował się także poza sieciami p2p. Na końcu – choć lista wypełniająca mindware jest nieskończona – wymienić można singularity jako przewidywaną przez niektórych (być może tragiczną) przyszłość naszego gatunku, zmierzającą ku ścisłej cyborgicznej koegzystencji z maszynami. Sens Sieci Mindware jest pracą zbiorowej wyobraźni, którą zgodnie z etymologią można zdefiniować jako opiekę nad umysłem. Możliwy do ustalenia medyczny lub pedagogiczny wymiar mindware wiąże się bez wątpienia z koniecznością wprowadzania procedur profilaktycznych, terapeutycznych czy takich, jakie sprzyjają socjalizacji w procesie rozwoju jednostek. Opieka nad umysłem rożni się jednak od polityki ochrony umysłu jako regulowania kanałów komunikacji, która może okazać się czymś wyjątkowo podejrzanym. Ochrona umysłu, jako działanie polityczne, polega na lobotomii, odcinaniu połączeń i likwidowaniu „nieproduktywnej” wielości. Mindware spełnia funkcję magiczną jako zbiorowe wyznanie wiary w sens Sieci – neutralnego terytorium wielości, a zarazem sprzeczności sensów i interesów ekonomicznych. 15
16
C. Doctorow, Lockdown. The coming war on general-purpose computing <http:// boingboing.net/2012/01/10/lockdown.html> [polska wersja tekstu: <http://mises. pl/blog/2012/01/18/doctorow-lockdown-nadchodzaca-wojna-z-komputeramiogolnego-przeznaczenia>]. I. Mao, Sharism. A Mind Revolution [2007] <www.isaacmao.com/meta/2007/09/sharism-is-not-communism-nor-socialism.html>.
223
Mindware przydaje się bardzo jako pojęcie istotne dla przedstawienia antropologicznego wymiaru cyberkultury, opisuje zjawiska i procesy, które stanowią jej fundament. Jest tożsame ze złożonością reakcji na procesy kontroli oraz interaktywnością w cyberkulturowym socializingu (czym innym jest analogowa „socjalizacja”). Pojęcie to obejmuje również googlizm, nie tylko jako swoistą chorobę percepcyjną, ale także strategię zdobywania i udostępniania wiedzy na zasadach szczególnej gry, toczonej w ramach sprzężenia zwrotnego pomiędzy systemem wyposażonym w zmienne reguły dostarczania informacji a bardziej lub mniej wolicjonalnymi działaniami użytkownika. Zobaczyć można w mindware technologię wiki, ale również nowy proces budowania znaczeń, który odnaleźć można także poza szlachetnymi gestami wikinomicznych encyklopedystów czy różnymi systemami budowanymi w nowej ekonomii wiedzy i reguł jej wytwarzania. W tym kontekście bardzo ważny jest hacking (i hacktywizm) jako model otwierania, ćwiczenia umysłu w procesie wymiany symbolicznej i związany z tym swoisty „hackerski folklor” o dużej już tradycji17. Jedno jest pewne: nowe sposoby korzystania ze świata nie będą istnieć w próżni. Konstrukcja ich i ontologiczny charakter zapraszają wprost do monitorowania treści i działań użytkowników, serwerów, botów i połączonych urządzeń. Trend ten dotyczy planowania decyzji biznesowych, projektowania interfejsów i architektury informacji, działań PR-owskich i marketingowo-reklamowych. Biznes pożąda danych etnograficznych o użytkownikach. Państwa oraz ich instytucje również pragną monitoringu swoich klientów, którzy słono płacą za ich usługi sprzedawane z umową bez klauzuli odstępstwa. Działanie mindware u klienta zaburzają ciągłe promocje, sprytnie wdrażane programy lojalnościowe, a mniej lub bardziej wolicjonalne decyzje konsumenckie czy nawet gorzki smak kompulsywnych zakupów zastępuje się neuromarketingiem. Śledzi się użytkownika-kilenta w Sieci, śledzi jego działania w sklepie, wykorzystując rejestrację zmian koordynatów geolokalizacyjnych telefonu, zaszywa w kieszeniach kupowanych ubrań chipy RFID, by wiedzieć, w jaki sposób towary przemieszczają się w sklepie. Jeśli potraktować sprawę pragmatycznie, chodzi przede wszystkim o to, żeby konektywne mindware było wystarczająco mocne, aby przeciwstawić się googleware czy facebookware, a uściślając – tym kilku algorytmom, które rządzą dziś światem kultury i odgrywają coraz większą rolę polityczno-ekonomiczną. Chodzi również o to, by mindware nie stało się elementem owego googleware. Strategia rozproszenia w Sieci staje się trudna w realizacji – musi być świadomym, lecz kłopotliwym wyborem środków zmierzających do rozproszenia tego, co jest dziś usilnie zbierane, analizowane i ukonkretnione – tożsamości użytkownika. Współcześnie – mimo olbrzymiego, historycznego dyskursu anonimizacji jednostki w Sieci – staje się ona coraz bardziej ukonkretniona. Każda usieciowiona jednostka dostarcza do tego czy innego komputera-matki informacje o otaczającej go przestrzeni i antropologicznej codzienności, służąc jako ruchomy żywy zestaw do monitoringu rzeczywistości. Serwerowe centrale monitorują skontraktowanego z nimi użytkownika, który ze swojej natury jest wyposażony w różne systemy fizjologicznej i technicznej rejestracji, odczuwania sensów oraz ich komunikowania – od zmysłów, ciała do umysłu i tagowania obecności ekstensji w realnej przestrzeni, udoskonaleń odnoszących się do czasu, przestrzeni oraz kulturowych treści i głębszych sensów. Już wkrótce kształt kultury będzie w dużym stopniu zależeć od ekstensji w postaci geolokalizatorów i kompasów, żyroskopów czy bardzo czułych akcelerometrów. Kształt kultury przyszłości zależeć będzie już nie, jak się to dziś bagatelizuje, 17
Zob. Appendix A. Hacker Folklore [w:] E. Raymond, The on-line hacker Jargon File, version 4.4.7, 29.12.2003, <http://catb.org/jargon>.
224
od gadżetów, lecz od narzędzi dostarczających wiedzę o tym, co dzieje się z naszym ciałem i umysłem, lokalizowanych bezpośrednio w przestrzeni. Już dziś (wykorzystując akcelerometr w urządzeniu mobilnym jako narzędzie badania wstrząsów) można określić nie tylko to, że postawiło się stopę, lecz również to, że wykonano ten ruch, wytwarzając pewną mierzalną porcję energii. Jako mobilne stacje monitoringowe ludzie dostarczają do systemu nie tylko informacje i dane, które wytwarzają świadomie sami, ale i te, które są generowane bezwiednie we wnętrzu urządzeń telekomunikacyjnych. Dostarczają ponadto do systemu ich interpretacje i pozornie nadmiarowe kulturowe treści, które są niezmiernie ważne dla doskonalenia i dalszego rozwoju sztucznej inteligencji jednostki kontrolnej. Interpretacje te i redundantne treści są podstawą uczenia się i tworzenia mapy wzorców antropologicznych, która (z wykorzystaniem geolokacji) jest kreślona na całkiem realnej mapie wraz z bagażem danych demograficznych. Kody tych interpretacji i redundantnych treści to nie tylko dane oparte na języku naturalnym i semantycznym tagowaniu rzeczywistości, to nie tylko możliwe do pozyskania obrazy i dźwięki towarzyszące różnym ludzkim aktywnościom, ale również same zachowania użytkownika w sensie korzystania z interfejsu i wchodzenia w interakcje. Dopiero od kilku lat ludzkość po raz pierwszy w dziejach naszego gatunku metodologicznie uczy maszyny swoich zachowań i sposobów myślenia. Ludzie, jako stacje monitoringowe, dookreślają i automatycznie wprowadzają do systemu własne powiązania z innymi fizjologiczno-technicznymi stacjami monitoringu w zakresie temporalnym, przestrzennym, emocjonalnym, przekazywanych sensów, ale również eksportują dane o kształcie wytworzonej sieci i zakresie relacji społecznych, które ich wiążą w nowe typy społeczności przekazującej treści wraz z odwołaniem do najbardziej namacalnej rzeczywistości. Algorytmy „rekomendacji” w social media podpowiadają treści, przyjaciół lub relacje z osobami, o których się sądzi, że mogą zainteresować lub pobudzić do dalszej konektywnej działalności, czyniąc to na podstawie analizy kontekstu wszystkich kolekcjonowanych dotychczasowych działań, obecnych nie tylko w wybranej grupie użytkowników mikrosieci, ale również całej populacji korzystającej z dobrodziejstwa interfejsu. Użytkownicy interfejsów sieci społecznościowych sami wytwarzają (na podstawie wprowadzanych treści) zestaw danych demograficznych, które są konieczne do prowadzenia badań społecznych. Co więcej, stale dostarczają nowe dane typu symbolicznego jako deskrypcję rzeczywistości, która podlega regułom swoistego przetwarzania informacji (taki proces można również nazwać mindware). Rzeczywistości, która składa się ze świata fizycznego, sieciowej codzienności i treści przenoszonych do Sieci, oraz nieuświadomionych zapisów procesów kognitywnych. Gra toczy się o to, żeby sprawdzić i monitorować, jak ludzie myślą. W jaki sposób podejmują decyzje. Jest to dziś podstawowy element wszelkich strategii marketingowych w środowisku sieciowym, których działanie opiera się na badaniu zachowań użytkownika. Ze środowiska marketingowego wypływa czasem dyskusja o etycznym wymiarze i granicach tego typu operacji. Bez wątpienia jednak strategie targetowania behawioralnego użytkowników są dziś najważniejszym narzędziem walki o konsumenta. Można być przekonanym o tym, że już w niedalekiej przyszłości wielkie globalne korporacje nie będą przebierać w środkach, stosując coraz bardziej zaawansowane technologicznie rozwiązania sprzedażowe. Mindware może być również etykietą obywatelskiego głosu rozsądku, republikańskiego gestu odrzucenia nadmiaru kontroli (czy monitoringu dla własnego dobra). Komputery mogą stać się nie tylko narzędziem komunikacyjnym o podwójnym znaczeniu, ale również bronią, którą obywatele wykorzystują do samoobrony. W latach 90. XX w. w kręgach libertariańskich obowiązywało nawet zupełnie jawne
225
przekonanie o proobywatelskiej wadze nowego wtedy typu komunikacji, z którego wyewoluowała współczesna cyberkultura: „computer is your weapon”. Przed dostarczaniem do Systemu danych typu etnograficznego chronić ma stosowanie przez obywateli zaawansowanej kryptografii jako intymizacji komunikacji kulturowej. W tym celu trzeba utrudnić sobie życie, bo gdybyśmy chcieli na przykład przesłać komuś informację o nawet najbardziej błahym sensie, musimy zrobić to za każdym razem w postaci zaszyfrowanego ciągu znaków, nieczytelnych dla systemu jako dane określające cokolwiek w rzeczywistości. Do tego potrzebna jest jednak umowa społeczna na obopólne stosowanie kryptografii, która ciągle jest (w sensie kompetencji nowomedialnych) przestrzenią komunikacji jedynie najbardziej zaawansowanych i świadomych użytkowników cyberkultury, którzy potrafią (i chcą) konfigurować własne środowisko. Intymizacja komunikacji kulturowej staje się możliwa jedynie wtedy, gdy system rozpoznaje, że doszło do aktu komunikacyjnego, ale nie jest w stanie dotrzeć do treści, newralgicznych dla tożsamości jej uczestników. Do stworzenia mapy zachowań użytkowników, owego user experience – co oznacza również badanie procesów kognitywnych zachodzących w ich umysłach – kluczowym zagadnieniem jest dostarczenie czytelnych dla systemu rozsianych informacji należących do sfery komunikacji nieformalnej. Pozyskanie ich w sieciach z otwartymi kodami jest proste. Gdy stosuje się zaawansowaną kryptografię, zmniejsza się zagrożenie kolekcjonowania większości możliwych do przechwycenia danych typu etnograficznego. Zaprogramowane i żądne wiedzy mindware systemu staje bezradne wobec świadomego mindware użytkowników jako kompetencji obrony prywatności czy nawet intymności. Trzeba pamiętać, że social media to przede wszystkim wielki biznes, ale również oczywista polityczna pokusa majstrowania sensem w kulturze. Zabawy z mindware’ową elektrycznością Analiza narzędzi neurostymulacji i strategii prowadzących użytkownika do konkretnych działań czy treści jest poważnym wyzwaniem dla współczesnej antropologii wiedzy. Widać to dziś bardzo wyraźnie. Znaczenie hipertekstu zostało zniwelowane przez rolę tagów, nie mówi się już (jak jeszcze 10 lat temu) o „nawigowaniu” czy „wirtualnych podróżach po cyberprzestrzeni” (sic!). Rizomatyczność Deleuza i Guattariego uwięzła teoretycznie w hipertekście, a największe dziś znaczenie ma nie wszech połączenie i dialogiczno-dekonstrukcyjna wymiana sensów, nie nomadyczność, lecz możliwość natychmiastowego wyszukania informacji, słowa kluczowe, semantyczna struktura danych oraz ich odpowiednio przygotowana architektura wyposażona w „ontologie” opisujące hierarchię i znaczenie bytów. Najważniejsze są dziś kanały komunikacji, bazy danych, ich architektura i algorytmy, które potrafią te bazy inteligentnie obsługiwać, a kulturowe znaczenia technologii jako nowej formy elektryczności zadecydują zapewne o dalszych losach ludzkości. Infrastruktura jest uzależniona od zasilania – bez energii elektrycznej dostarczanej do farm serwerów cyberkultura po prostu nie istnieje. Nie istnieje również bez elektryczności zasilającej urządzenia komunikacyjne, sieci przesyłu danych i wszelkie elementy infrastruktury, które stanowią swoisty układ nerwowy cyberkultury – ekstensje przekraczającą możliwości operowania sensem przez cały zbiór użytkowników. W cyberkulturze pojawia się problem braku równoważności jej uczestników i technicznego zaplecza. W sensie ontologicznym jest ono po prostu ważniejsze niż partykularne interesy użytkowników. Pod tym względem nie ma symetrii, a tym bardziej przewagi człowieka. Zaplecze techniczne jest zdecydowanie bardziej istotne także w sensie operacyjnym i strategicznym. Można zaryzykować pogląd, że kultura jest dziś całkowicie uzależniona od elektryczności.
226
Jest to następny etap istnienia cywilizacji zdeterminowanej przez elektryczność redukującą przestrzeń – zagęszcza obieg informacji kulturowych i powoduje powstanie nowych form „plemienności”, które przekraczają granice fizyczno-geograficznego rozumienia rzeczywistości społecznej. Uzależnienie sensów od elektryczności było jedną z najważniejszych McLuhanowskich tez, jest ona bowiem „w istocie rozszerzeniem układu nerwowego w coś w rodzaju globalnej membrany”18. Elektryczność to nie tylko domena działań jakiegoś ministerstwa infrastruktury, którego opieszałość czy zaniedbania prowadzić mogą do tragedii humanitarnej w razie awarii zasilania lub katastrofy spowodowanej siłami natury. Obserwuje się dziś ponowne odkrywanie Marshalla McLuhana jako swoistego patrona cyberkultury. Trzeba sobie zdać sprawę, jak bardzo analizowane tu mindware jest uzależnione od politycznej „elektryczności”.
18
M. McLuhan, Wybór tekstów, red. E. McLuhan, F. Zingrone, Wydawnictwo Zysk i S-ka, Poznań 2001, s. 132.
227
Teorie mindware
Postmediacje
Egzoetyka: O potrzebie poszukiwania nieantropocentrycznego źródła moralności Michał Brzeziński
229
Software i hardware tworzą pozornie zamknięty układ kontrolujący przepływ informacji w systemie, a jego pozorność w tej skończoności i teoretycznej doskonałości ujawnia się kiedy nakieruje się swoją myśl na człowieka wchodzącego w układ relacji logicznych i fizycznych. Okazuje się wtedy, że teorie mediów są niepełne, gdyż koncentrują się na procesach wewnątrz maszyny i interfejsie, a zazwyczaj brakuje w nich elementu somatycznego, odnoszącego się do subtelnych relacji wewnątrz graniczącej z maszyną biocenozy. Ciało i umysł ludzki stanowią kombinację wilgotnej, organicznej żywotności, i suchej, zimnej logiki. Jedynie logika sprowadzona do matematyki kontroluje procesy fizyczne maszyny, która to maszyna jest logice poddana na zasadzie kontroli funkcjonalnej. Natomiast sama forma tej funkcjonalnej kontroli jest stworzona pod wpływem myśli ludzkiej, a więc nosi w sobie antropocentryczną, wilgotną, biologiczną ideologię, która ujawnia się w maszynie. Zaszczepiona ideologia logiki jest ukształtowana pod wpływem tysięcy lat rozwoju ciała ludzkiego, atawizmów mózgu i archetypów kultury, która dojrzewała w organicznym środowisku. Samo pojęcie kultura ujawnia proces kontrolowania żywiołu organicznego przez myśl, czynienia sobie ziemi poddaną, a więc tę rolę dosłownie spełnia software koordynujący pracę materii jako maszyny. Ciało ludzkie nie jest wyłączone z owego porządku ziemskiego, który ma być kontrolowany przez człowieka, i na tym polega problem ciała i umysłu jako odrębnych, acz złączonych res cogitans i res extensa. Ciało jest poddane między innymi działaniu kultury, ale występuje także jako jej wzorzec. Kultura ludzka została ukształtowana przez ciało ludzkie, które stoi w jej centrum, często w formie hybrydy, w połączeniu z ciałem zwierzęcym, które oddaje związek człowieka z naturą. Natomiast emancypacja ciała spod władzy kultury wydaje się niemożliwa, gdyż zawsze dokonuje się ona jako część kultury i w kierunku wyznaczanym przez kulturę. Tradycja żydowska ukazuje ten głęboki związek między matematyką, alfabetem, ciałem ludzkim a konstrukcją przestrzeni. Często przytaczana w kontekście komputera jako cybernetycznej maszyny Kabała ukazuje „ukryte”, boskie relacje między światem a umysłem. Uważne czytanie kabały pozwoli także na zrozumienie totalnego charakteru dialektyki uformowanej przez Hegla, która została wykorzystana jako baza dla marksizmu i darwinizmu – współczesnego rozumienia organiczności jednostki i politycznej ekonomii społeczeństwa. Ciekawostką historyczną może być zaangażowanie środowisk żydowskich w międzynarodówkę socjalistyczną – można przypuszczać, że absorbowanie założeń marksistowskich było ułatwione przez ukryty mistyczny na sposób żydowski charakter tych ideologii. Jednak rozszerzając spojrzenie, możemy uogólnić tę obserwację do wszelkiej tradycji, wiedzy, niekoniecznie tych budowanych na dialektycznej bazie. Wszędzie występuje sprzężenie wymykającej się słowu dionizyjskiej, barokowej, romantycznej organiczności oraz apollińskiej renesansowej, oświeceniowej harmonii i logiki. Przemilczę pokusę traktowania ich dialektycznie dla uzasadnienia historii zmian paradygmatów. Kultura, a w tym jej warstwa organiczna, stanowią wzorzec dla formowania interfejsów, a skoro technologia jest skórą kultury, dochodzę do tautologii, z której jedynie istotna jest wykazana struktura kultury – organiczno-mechaniczno-logiczna. Gdzie można zobaczyć jej przejawy? Cała filozofia wzornictwa i interfejsów firmy Apple była projektowana jako organiczna, zaokrąglona bryła o intuicyjnym oprogramowaniu, które miało być całkowicie homogeniczne. Każde urządzenie jest od tego czasu projektowane tak, aby odzwierciedlało struktury danych, które pochodzą wprost ze świata somatycznego. Chciałbym skupić się jednak w tym momencie na zagadnieniach etycznych, które pojawiają się w świecie płynnych granic między jednostką a jej
231
ekstensjami medialnymi, oraz włączyć w ten obszar również relacje człowieka i innych, również hybrydycznych form życia. Okaże się wówczas, że medium i interfejsem mogą być nie tylko te wszystkie rzeczy, które zwykło się określać jako media. Pojawi się kontekst tzw. mediów wilgotnych (moist media), oczyma wyobraźni widzę przyszłość, a w niej dział MOISTMEDIA obok działu AGD. Chodzi tu głównie o organiczne formy życia. Inne formy mediów, które dziś bardzo często zaczynają być mediami np. artystycznymi, co wiąże się z poddawaniem pod refleksję ich uprzedmiotowienia, które odnajduje się przecież w codzienności i które wynikają z każdej tradycji. Handel płodami rolnymi, żywymi zwierzętami albo ich mięsem to przecież nic innego niż uprzedmiotowienie życia. Rytualne spożywanie mięsa w wielu kulturach mogłoby być traktowane jako rodzaj próby przywrócenia podmiotowego stosunku dla spożywanego życia, jednak sama społeczna praktyka obsługująca za pomocą rytuału niewidzialnego ducha zwierzyny zawsze będzie wiązała się z przedmiotowym traktowaniem samych widzialnych i smacznych zwierząt – a finalnie ofiarowaniem duchowi jedynie palonych, mało przydatnych kości. Duch jednak nie wykazuje się praktyką. Tym bardziej przedmiotowe traktowanie maszyny, robota wydaje się czymś naturalnym. Jednak natura ludzka wkracza w te obszary, nieubłaganie stając się mieszaniną ludzko-maszynową. Maszyny do pamiętania, maszyny do przenoszenia głosu czy obrazu... Nie chodzi nawet jeszcze o kwestie łączenia się tych bytów z organizmem ludzkim w sensie biologicznym np. na obszarach nanotechnologii. Zaczyna się to wszystko od zdobienia narzędzi, od przenoszenia wewnętrznego wzoru piękna na martwą materię, a następnie od udomowienia zwierząt i przejęcia odpowiedzialności za ich los, który był jedynie losem narzędzia. Dawny związek myśliwego i psa czy kobiety i kota może przypominać dziś związek człowieka i jego telefonu komórkowego czy komputera. Nadaje się cechy ludzkie bytom nieludzkim – zarówno zwierzętom, jak i narzędziom. Prowadzi to do przeniesienia etyki ludzkiej na nieludzkie formy – zarówno technologiczne, jak i inne formy życia, takie jak rośliny czy zwierzęta. Antyczne rozumienie etyki w stosunku do człowieka było niejednorodne i pełne wieloznaczności. Pewne jest to, że „etyczne” były inne rzeczy w odniesieniu do poszczególnych warstw społecznych. Pojawiało się jednak podstawowe dla wielu kultur rozwarstwienie na obywateli, tzw. wykluczonych z najniższą formą wykluczenia – niewolników. Niewolnik był uprzedmiotowionym człowiekiem, którego często kastrowano, pozbawiano cech indywidualnych i traktowano jak coś między sprzętem a zwierzęciem. Warstwę życia chronionego bios tworzyli obywatele, a wykluczeni podobnie jak zwierzęta tworzyli warstwę pozbawioną ochrony, nagie życie zoe. W strukturze obywateli kluczową postacią o boskich cechach był władca. Życie obywateli było chronione rozmaitymi prawami, a sami obywatele stanowili zazwyczaj strukturę dworsko-militarną, armię i zaplecze dla armii. Brali udział jednak zawsze w ważnych wydarzeniach i byli związani z aparatem władzy. W przypadku małych plemion większa była liczba obywateli, lecz w przypadku imperiów zwiększała się liczba wykluczonych, a co wynikało z prostego rachunku, większa liczba wykluczonych i niewolników dawała większe możliwości i korzyści obywatelom, a przez to władcy. Rozmaite imperia podchodziły w różny sposób do ludów podbitych i na różny sposób integrowali terytoria za pomocą struktur społecznych. Aleksander Wielki rozumiał rolę lokalnych struktur społecznych i zamiast je niszczyć, podporządkowywał je sobie. Nabuchodonozor działał w zgoła odmienny sposób. Najczęściej jednak struktury były w dużej części niszczone w warstwie obywatelskiej i zastępowane nowymi strukturami wywodzącymi się ze struktur zdobywców. Jednak
232
w każdym z przypadków specyficzna kastowość była częścią spójnej etyki, w której rolę nadrzędną odgrywała siła czy też władza. Chrześcijaństwo wprowadziło odmienną ideologię, która została uznana przez władze za niebezpieczną i przekształcono ją szybko w zaakceptowaną społecznie wersję „soft”, która stała się niebawem oficjalną religią Rzymu. Przyswojona forma chrześcijaństwa podobnie jak inne, wcześniejsze religie utrwalała władzę, jednak nie pozostała bez wpływu na idee władzy. Władza musiała zmienić więc język i formy rządów. Nie zamierzam tu opisywać tej wizji przeszłości, ale pragnę zwrócić uwagę na to, że nie należy widzieć realizacji idei chrześcijańskiej jedynie w wiekach średnich, ale raczej na równych zasadach widzieć jej pokłosie w rozwijającej się idei równości w rewolucji francuskiej, w deklaracji praw człowieka czy w ideach socjalistycznych i komunistycznych. Najistotniejszym elementem, jaki przecież wyciągała masoneria z chrześcijaństwa, był jego wymiar humanistyczny, nastawienie na każdego człowieka, nie tylko na równość obywateli, ale na powszechność kategorii obywatela. Utopijna wizja równości wywodząca się z chrześcijaństwa przeradzała się jednak także w rozmaite formy ideologicznego podłoża dla totalitaryzmu. Każda forma władzy opiera się wszak na wykluczeniu. Wykluczenie w chrześcijaństwie miało odbywać się przez przyjęcie lub przekroczenie określonych zasad życia, które były jednakowe dla wszystkich. Jednak niezależnie od swych decyzji każdy człowiek znajdował się od tej pory w sferze bios. Społeczeństwo po tysiącleciach życia w systemie opartym na sile i posiadaniu nie mogło długo trwać w tej iluzji. Taki jest początek Kościoła i średniowiecznej Europy. Chrześcijaństwo przede wszystkim miało jednak znieść społeczną praktykę kozła ofiarnego – co nie oznacza, że ten mechanizm przestał wtedy istnieć. Mechanizm kozła ofiarnego był zawsze obecny, jest podłożem antysemityzmu i wielu innych wrednych ideologii, a w sztuce przynajmniej od czasu akcjonistów wiedeńskich wraca jako kwestia dowartościowana kulturowo, co w kontekście formowanych tu egzoetyk wydaje się szczególnie niebezpieczne, gdyż dziś nic, żadna forma ideologii nie chroni już człowieka przed cierpieniami, jakie spotykają zwierzęta. Człowiek stał się jedynie jedną z form życia. Przez wiele wieków prawa boskie wykluczały ludzi o odmiennych przekonaniach lub różniących się od ogółu na inne sposoby, np. homoseksualistów, Żydów. Jedynie część z tych błędów można uznać za złą interpretację chrześcijaństwa. Prawa ludzkich obyczajów poparte pismami religijnymi wykluczały z udziału w tworzeniu społeczeństwa także kobiety, które spełniały rolę podległą męskiemu punktowi widzenia. Krytyka feministyczna dostrzegła więc przede wszystkim płciowy charakter tradycji biblijnej. Do tego stare formy wykluczenia ekonomicznego opartego na etyce antycznego polis i pojęciu obywatela jako znaczącego i zamożnego członka społeczeństwa doprowadziły do powstania ruchów lewicowych, które wkrótce dostrzegły nie tylko „pospólstwo”, a więc tych wykluczonych na polu ekonomicznym, ale i uważnie przyglądały się wszelkim wykluczeniom. Jednak stanowiąc o mechanizmach władzy, owe ruchy lewicowe nie są wolne oczywiście od tworzenia własnych obszarów wykluczenia. Obecnie lewicowy dyskurs wykluczenia jest przenoszony na terytoria tzw. gatunkowizmu, czyli problem obejmuje nie tylko wykluczonych ludzi, ale inne gatunki. Prowadzi to do idei zrównania praw zwierząt czy roślin z prawami ludzi. Kwestie te uważam za kluczowe. Na ile zrównanie roślin z ludźmi nie zakończy się zrównaniem ludzi z roślinami, a więc klęską etyki antropocentrycznej na rzecz egzoetyk, w których zabicie człowieka zostanie zrównane z zabiciem bakterii, czyli stanie się moralnie neutralne? Na ile przykładowo będzie się wartościować życie ludzkie w zależności od stopnia zintegrowania ciała ludzkiego z technologią
233
czy innymi cechami gatunkowymi? Życie trwające dzięki ingerencji technologii powinno być mniej, bardziej czy tak samo wartościowe? Na ile można mówić o dwóch różnych postawach jako wzorcowych, gdzie postawa Jana Pawła II, który zdecydował się na przerwanie życia przez odłączenie od technologii, może być zestawiona z życiem Stephena Hawkinga, który dzięki technologii dokonuje kolejnych spektakularnych przełomów w nauce? Zarówno jeden, jak i drugi z nich w momencie podłączenia do maszyn podtrzymujących życie dysponowali pełnią mocy umysłowych. Co wtedy, kiedy technologia posiądzie wystarczającą ilość informacji do tego, by s(t)ymulować procesy zachodzące w umyśle człowieka, by działać za niego, wykonywać operacje na informacjach w sposób zbliżony do tego, jak ma to miejsce w przypadku mózgu? Czy tylko życie ludzkie powinno być wartością bronioną przez moralność? Dlatego właśnie temat uformowania egzoetyk, które powstaną w odniesieniu do nieantropocentrycznych źródeł uważam w tej chwili za kluczowy dla naszej cywilizacji. Należałoby znów na osi czasu zarysować ogólny kształt zmieniającego się podejścia do innych form życia w całym ciągu ewolucyjnym człowieka. Od pierwszych kultur plemiennych, które oddzielały się od świata zwierzęcego, które wykorzystywały oswojony ogień jako narzędzie emancypacji gatunku ludzkiego z porządku natury, które tworzyły pierwsze narzędzia do polowania i które malowały sceny polowania, by zaklinać rzeczywistość za pomocą ikon, zyskujących moc dzięki szamańskim rytom, dzięki paleniu kości. Duch zwierzyny nie był tylko duchem upolowanego, ale był duchem natury, obecnym w innych zwierzętach, który mógł doprowadzić myśliwego do powodzenia lub klęski. Następnym etapem było oswojenie niektórych zwierząt pomocnych przy polowaniach, oswojenie roślin, które można było siać w pobliżu jaskini lub innego miejsca pobytu. Doprowadziło to do powtórnego nawiązania relacji z przyrodą, która była już czymś innym, niezwiązanym z człowiekiem, a człowiek mógł nią sterować, wypasać bydło czy owce. Przywiązanie do roślin powodowało przywiązanie do ziemi, która była mniej lub bardziej urodzajna, szczególnie można było to obserwować w delcie Nilu lub w obszarach stanowiących ostrą granicę między światem urodzaju a pustynią śmierci. Zwierzęta i rośliny towarzyszyły od tej pory człowiekowi przez całe tysiąclecia w dwóch sferach. Pierwsza to sfera osobista, sfera polowania, która szybko doprowadziła do związku np. psa i domu. Podobnie wiele roślin okazywało się pożytecznych nie ze względu na walory spożywcze tylko dekoracyjne, miały ładny zapach, wygląd. Wchodziły często do kręgu osobistego, choć nie często do domu. Druga to sfera hodowli w celach spożywczych. Zwierzęta i rośliny były traktowane równo jako źródło korzyści, pożywienia, ale także skór i innych dóbr, towarów. Były przedmiotem handlu i bywały często rodzajem waluty. Taką walutą bywały wtedy także kobiety czy dzieci, które można było wymienić np. na zwierzęta. Podobnie traktowano ludzi, zarówno kobiety, jak i mężczyzn spoza plemienia. Powstawało niewolnictwo, rozmaite struktury i systemy władzy. Jest to dobrze znana opowieść. W wielu kulturach nieeuropejskich można jednak dostrzec kardynalny związek umysłu ludzkiego i umysłów roślinnych i zwierzęcych. Szamańskie rytuały bywały łączeniem się ze światem zwierzęcym, utożsamianym ze światem duchowym. Zwierzęta były bytami wyższymi w tym obszarze, a ich umiejętności przenoszono za pomocą rytuałów na ludzi. Ludzie często odczuwali duchowy związek z roślinami, nie tylko ze względu na ich narkotyczny wpływ. Otoczenie człowieka było żywe. Las oddychał, szeptał, a myśliwy musiał nie tylko wsłuchiwać się i wytężać wzrok, ale i połączyć swoją świadomość ze świadomością roślinną, świadomością lasu jako wspólnego organizmu. Z wyższą świadomością
234
roślin, ich „duchem”. Przedstawiona boczna odnoga, której kultura europejska nigdy nie przeżywała dostatecznie głęboko, wydaje się teraz kluczowym doświadczeniem dla ludzkości, które spotka ją w ciągu nadchodzących lat. Kiedy umysł ludzki usieciowi się za pomocą technologii, będzie można lepiej zrozumieć jego działanie jako elementu całej sieci globalnych połączeń, a interfejsy komunikacyjne w dosłowny i dobitny sposób będą stanowić pomost między człowiekiem a roślinami czy zwierzętami. Podobne subtelne oddziaływania mogą pojawić się również na innych obszarach, w których raczej trudno mówić o komunikacji, ale raczej o jednostronnym wpływie planet (co przywracałoby astrologię do obszaru zainteresowania dla naukowców). Oczywiście umysł ludzki sam dla siebie wytwarza najsilniejsze bodźce, jednak oddziaływania subtelne, takie jak magnetyzm ziemi, energia planet i gwiazd, energia innych umysłów, roślin czy zwierząt stanowią dla niego pewne uzupełnienie. W tym kontekście pojęcie mindware otwiera swe kolejne potencjalne znaczenia, mindware może być rozumiany jako zbiór elementów wpływających na działanie ludzkiego umysłu: od doświadczeń zmysłowych, wśród których usytuowany jest styk człowieka, i hardware, przez kulturę i jej styk z software’em, po wpływy subtelne, takie jak pole elektromagnetyczne wytwarzane przez inne gatunki, ale również maszyny. Trudno obarczać winą nauki Chrystusa za stanowisko filozofów, takich jak Kartezjusz, którzy, dzieląc rzeczywistość na ciało i umysł, pozwolili na dostęp do umysłu jedynie człowiekowi. Źródłem było pojęcie dusza, którego rozwojowi w dalszej części rozważań należałoby się bliżej przyjrzeć od strony jego genezy. Zarówno dla Kartezjusza, jak i dla Leibnitza i wielu innych uczonych filozofów zwierzęta były tylko „mechanizmami” bez umysłu. Oczywiście jest w tym wiele z myślenia religijnego, w którym nie umysł, ale dusza była podstawową cechą różniąca człowieka od świata przyrody. Człowiek nosił w sobie antropocentryczną wizję religijną, ślad, tchnienie tożsame z jego duszą i obraz stwórcy tożsamy z jego ciałem. Wszystko, co nie było człowiekiem, było pozbawione dostępu do zamysłu Boga lub było mu wręcz przeciwne (wąż). Zbłądzenie europejskiego umysłu skutkowało wieloma okrucieństwami i dawało prostą legitymację do wprowadzania niewolnictwa, gdyż wszelcy mieszkańcy ziem podbitych byli utożsamiani z półzwierzętami. Nie używali zrozumiałego dla europy języka, żyli blisko przyrody, nie wyznawali wiary w Chrystusa. Religia była jednak dodatkowym narzędziem wykluczenia tych dzikich, nieochrzczonych ludzi poza sferę życia chronionego, poza bios i przerzucenia ich egzystencji w sferę zoe, którą można było eksploatować na zasadzie surowca naturalnego. Mechanizmy te były później odpowiedzialne za Holokaust, w którym zrównanie Żyda z robactwem lub odwrotnie były immanentną częścią ideologii rasy. W antysemityzmie ludowym trwały bardzo długo podobne porównania. Ludzie jednak do dziś często otaczają się roślinami czy zwierzętami, tworząc wokół siebie pewną barierę energetyczną, często chroniącą ich przed promieniowaniem zaawansowanej elektroniki, a kiedy przebywają w pomieszczeniu pełnym ludzi wrogo nastawionych, często nie potrzebują czytelnych sygnałów wizualnych czy werbalnych, aby ocenić sytuację. Czują stres czy presję psychiczną bez potrzeby uciekania się do konkretnych bodźców. Oczywiście nie jest to w żadnym razie naukowa próba wyjaśnienia procesów komunikacji transgatunkowej czy dowód na jej istnienie, ale raczej wskazanie obszaru, w którym należy skoncentrować wysiłki dla zbadania perspektyw rozwoju technologii, które umożliwią rozwój takiej komunikacji transgatunkowej, jaka, moim zdaniem, jest podstawą do stworzenia jakiejkolwiek wiarygodnej egzoetyki. Technologia odgrywa w tym miejscu wręcz kluczową rolę.
235
W celu pełniejszego zarysowania i zrozumienia perspektyw, jakie daje technologia w relacji między człowiekiem a otaczającym go ożywionym światem, należałoby teraz poczynić podobną podróż w czasie, przyglądając się rozwojowi technologii, a więc archeologii mediów. Od wynalazku koła, który umożliwił handel surowcami i transport ciężkich materiałów np. do konstruowania budowli, po pętle informatyczne umożliwiające działanie programów operujących na złożonych bazach danych i tworzenie sztucznej inteligencji. Ze względu na konieczność zagęszczenia tego wywodu wystarczy jednak przypomnieć sobie badania nad świadomością roślin, prowadzone między innymi przez Cleve Backstera, dostrzegalne jest, że nie tylko człowiek odbiera impulsy ze świata roślinnego czy zwierzęcego, ale także fakt, że rośliny są w stanie odbierać impulsy np. od wołających o pomoc innych prostych form życia, takich jak krewetki. Eksperyment polegał na tym, że Cleve Backster umiejscowił roślinę w pomieszczeniu, a za ścianą umiejscowił maszynę, która losowo wrzucała krewetki do wrzątku. Roślina wyraźnie wykazywała bardzo silną reakcję galwaniczną dokładnie w momencie, kiedy do wody rzucano kolejne porcje krewetek. Sam eksperyment był wynikiem przypadku, w którym uczony próbował sprawdzić reakcję galwaniczną rośliny na podpalanie jej ogniem. Okazało się to jednak niepotrzebne, gdyż na samą myśl o zapałkach, których Cleve Backster nie posiadał w laboratorium, roślina wykazała bardzo silną reakcję. Cleve Backster powtarzał wielokrotnie ten eksperyment w różnych konfiguracjach, a w jednym ze stadiów eksperymentu umiejscowił roślinę jako widza przed ekranem, na którym wyświetlane były filmy. Okazało się, że rośliny były w stanie wskazać na momenty, w których pojawiały się drastyczne sceny i nie potrzebowały do tego dodatkowych „translacji”. Badania uznano jednak za nierentowne i nieprzydatne dla wojska, a na domiar złego wprowadzające chaos w świecie etyki, który musiał uporać się z okrucieństwami II wojny światowej. Kilku naukowców wykorzystało więc szczeliny w jego metodologii do tego, by zdyskredytować ten obszar badań, który dziś, głównie za sprawą sztuki, przeżywa swój renesans. Żywy las myśliwego, dzięki niesforności artystów, zaczyna znów zbliżać się do nas i pragnie bardziej precyzyjnej komunikacji, pragnie udziału naukowców w konstruowaniu tej szalonej wizji świata, w którym świat jest pełen komunikatów, których ludzie nie potrafili odczytywać. Przede wszystkim jednak ów żywy gadatliwy las pełen rozmaitych gatunków fauny i flory pragnie negocjacji kwestii etyki w kontekście antropocentrycznego systemu, pragnie własnych egzoetyk uwzględniających potrzeby i relacje całej biocenozy, a człowiek musi umieć zrobić miejsce innym formom życia. Ludzie są tymi, którzy utorują im drogę do pełnej realizacji na obszarze umysłu, emocji, świadomości, a może i ducha. Należy pamiętać, że to, co człowiek robi dziś dla innych gatunków, jutro będzie wyznaczało obszary wolności dla transgenicznych organizmów, częściowo ludzkich (stąd jest konieczne przywrócenie pogłębionej refleksji nad podmiotem w kontekście innych form życia), częściowo technologicznych (stąd konieczność rekonstrukcji kultury na obszarze informatyki i nauk o komunikacji), a częściowo roślinnych lub zwierzęcych (konieczność zgłębienia znaczenia ciała dla układu podmiotu i tożsamości kulturowej). Obszarem, na którym dziś taka refleksja mogłaby się odbyć, widziałbym interdyscyplinarny splot nauk kognitywnych, poszerzony o badania percepcji innych form życia.
236
Bibliografia • Agamben G., Sacer H., Sovereign Power and Bare Life, University Press, Stanford 1998. • Ascott R., Telematic Embrance, Visionary Theories of Art, Technology, and Conciousness, University Of California, Berkeley, Los Angeles, Kalifornia, Londyn 2003. • Backster C., Primary Perception: Biocommunication with plants, living foods, and human cells, White Rose Millennium Press, 2003. • Braidotti R., Biowładza i nekropolityka. Refleksje na temat etyki trwałości, „Eurozine Springerin” 2007, nr 2, www.ekologiasztuka.pl/pdf/f0045braidotti.pdf. • CRITICAL ART ENSEMBLE, Digital Rresistance, Explorations In Tactical Media. Autonomedia, Nowy Jork 2001. • Girard R., Kozioł ofiarny, tłum. M. Goszczyńska, Łódź 1987. • Haraway D., The Companion Species Manifesto. Dogs, People, and Significant Otherness, Prickly Paradigm Press, Chicago 2003. • Media Ecologies: Materialist Energies in Art and Technoculture, Matthew Fuller, 2005. • Merchant C., Radical Ecology. The Search for Livable World, Routledge, Londyn–Nowy Jork 2005. • Parikka J., Insect Media. An Archeology of Animals and Technology, University of Minnesota Press, 2010. • Rose N., The Politics of Life Itself: Biomedicine, Power, and Subjectivity in the Twenty-First Century, Princeton University Press, Princeton, New Jersey 2006. • Steiner G., Anthropocentrism and Its Discontents. The Moral Status of Animals in the History of Western Philosophy, University of Pittsburgh Press, Pittsburgh 2005.
237
Teorie mindware
Postmediacje
Happy end mitu wieĹźy Babel Marcin Skrzypek
239
Mindware to... Słowo mindware to neologizm dość łatwo przychodzący na myśl w czasach powszechnej cyfryzacji. Jest połączeniem angielskiego mind (umysł) ze słówkiem ware (sprzęt, oprzyrządowanie). Znaczy więc dosłownie tyle co: oprzyrządowanie umysłu lub umysł jako sprzęt. Reszta jest kwestią doprecyzowania pod konkretne potrzeby użytkownika. Mindware pasuje więc do różnych kontekstów związanych z zarządczym podejściem do ludzkiego umysłu jako procesora danych. Na przykład w układzie roboczym człowiek-komputer mindware może oznaczać ten trzeci, ludzki – po hardwarze i softwarze – element decydujący o efektywności przeprowadzanych przez układ operacji. Ale w Internecie słowo to jest użyte prawie 3 miliony razy, również jako nazwa firm czy produktów, więc w zasadzie nie da się stwierdzić, co ono „znaczy” obiektywnie, ponieważ znaczy to, co dany użytkownik nim nazwie. Można zaryzykować stwierdzenie, że tylko w wyjątkowych przypadkach spośród tych 3 milionów użytkownicy przypisują mu jakiś uniwersalny sens, który usprawiedliwiałby umieszczenie tego słowa w słowniku, chociażby żargonowym. Dlatego metodyczny dyskurs wokół mindware’u jest zajęciem twórczym. Polega na definiowaniu nowych problemów związanych z polem znaczeniowym tego neologizmu, natomiast nie ma nic wspólnego z badaniem jakiegoś zjawiska czy weryfikacją sądów, ponieważ te czynności są na razie bezprzedmiotowe. Chyba żeby zbadać te 3 miliony spontanicznych zastosowań mindware’u. Tekst niniejszy proponuje, aby mindware’em nazywać „oprogramowanie kapitału społecznego” lub też „kompetencje dialogiczne wobec wyzwań komunikacyjnych XIX wieku”. Definicje te zostały szerzej omówione w materiałach projektu Mindware. Technologie dialogu zrealizowanym w Lublinie w 2011 roku. Stawiają one tezę, że wszyscy uczestniczą obecnie w procesie raptownego rozwarstwiania językowego ludzkości, przy czym język jest tu traktowany bardzo ogólnie jako umiejętność uzgadniania warunków współżycia. Przez analogię do zjawiska ucieczki galaktyk można by ów proces rozwarstwiania nazwać ucieczką wyobraźni, na które to wyobraźnie składa się wiedza, pamięć, zdolność planowania, wrażliwość, hierarchie wartości itd. W tym modelu mindware jest metaforą komunikacyjnego interfejsu, który mógłby zintegrować oddalające się od siebie ludzkie wyobrażenia o świecie, ponieważ spotykają się one w świecie realnym, więc muszą umożliwiać swoim posiadaczom uzgadnianie warunków współżycia. Wyobraźnie te tworzą sieci kolaboracyjne, gdy korzyści z ich współpracy przewyższają koszty. Do mindware’u można zaliczyć wszystko, co obniża te koszty, zwiększa korzyści i stabilizuje sieci. W świetle tej definicji mindware jest pojęciem normatywnym, nazywającym pewne niesformułowane jeszcze kompetencje – jest postulatem i projektem, a może nawet manifestem odnoszącym się do przestrzeni fazowej przyszłych scenariuszy rozwoju społeczno-epistemologicznego. W tej zaś przestrzeni mindware spotyka się z biblijną historią wieży Babel, będącą mitem założycielskim wielości systemów kodowania znaczeń oraz problemów ich wzajemnej translacji1. Mówiąc najkrócej, mindware to happy end mitu o wieży Babel. Spróbuję odczytać tę narrację w kontekście współczesnych wyzwań zdefiniowanych przez mindware, by zrozumieć, na czym mógłby polegać komunikacyjny interfejs mindware’u. 1
Słowo mit jest tu użyte w rozumieniu Miracei Eliadego jako opowieść, która wyjaśnia świat człowiekowi kultury tradycyjnej. Ma on znaczenie neutralne, bez orzekania o prawdzie czy fałszu zawartych w nim treści. Mit nie jest tu więc pojęciem wartościującym i nie wymaga rozdzielania mitologii od religii. Takie „niedyskryminujące” podejście jest jedną z cech mindware’u, ale też często wymaga dodatkowych objaśnień, gdyż język wypełniają określenia wartościujące i dyskryminujące, dla których neutralne zamienniki i synonimy często po prostu nie istnieją.
241
Babel – intro Historia wieży Babel należy do najbardziej uniwersalnych kulturowo tekstów Biblii i najszerzej używanych w nawiązaniach. Symbolika terminu wieża Babel żyje więc własnym życiem – trochę tak jak mindware – ale koncentruje się wokół kilku głównych i dobrze znanych interpretacji jako symbolu: • chęci dorównania Bogu, • mnogości języków, • przedsięwzięcia niemożliwego do zrealizowania i prowadzącego do zamętu, • Babilonu jako siedliska władzy i zepsucia, • pychy ludzi i bożego gniewu. Wymowa tych interpretacji opiera się na opozycji ludzie – Bóg i jest bardzo dydaktyczna i krytyczna moralnie, choć ostateczna ocena obu stron zależy od osobistych orientacji czytelnika. Z teocentrycznego punktu widzenia ludzkość wypada w nim bardzo negatywnie, natomiast z antropocentrycznego – pozytywnie. Tak czy inaczej w tej postaci mit jest bezużyteczny do przetwarzania wiedzy. Opisuje po prostu pewien stan czy rację, z którą można się zgodzić lub nie. Zastanawiające jest jednak, że większość tych skojarzeń nie wynika z tekstu mitu. Jeśli go wnikliwie przeczytać, jego symbolika będzie wymagała rekonfiguracji i udzieli nam pewnych podpowiedzi na temat mindware’u. O wieży Babel w Biblii znajduje się zaledwie wzmianka, ale nie jest ona tak oczywista, jak się wydaje: Mieszkańcy całej ziemi mieli jedną mowę, czyli jednakowe słowa. A gdy wędrowali ze wschodu, napotkali równinę w kraju Szinear i tam zamieszkali. I mówili jeden do drugiego: Chodźcie, wyrabiajmy cegłę i wypalmy ją w ogniu. A gdy już mieli cegłę zamiast kamieni i smołę zamiast zaprawy murarskiej, rzekli: Chodźcie, zbudujemy sobie miasto i wieżę, której wierzchołek będzie sięgał nieba, i w ten sposób uczynimy sobie znak, abyśmy się nie rozproszyli po całej ziemi. A Pan zstąpił z nieba, by zobaczyć to miasto i wieżę, które budowali ludzie, i rzekł: Są oni jednym ludem, i wszyscy mają jedną mowę, i to jest przyczyną, że zaczęli budować. A zatem w przyszłości nic nie będzie dla nich niemożliwe, cokolwiek zamierzą uczynić. Zejdźmy więc i pomieszajmy tam ich język, aby jeden nie rozumiał drugiego! W ten sposób Pan rozproszył ich stamtąd po całej powierzchni ziemi, i tak nie dokończyli budowy tego miasta. Dlatego to nazwano je Babel, tam bowiem Pan pomieszał mowę mieszkańców całej ziemi. Stamtąd też Pan rozproszył ich po całej powierzchni ziemi. (Rdz 11,1–9, Biblia Tysiąclecia)
Metoda Jak czytać taką narrację, żeby ją zrozumieć? Można to robić na metapoziomie, korzystając z naukowej metodologii, ale pytanie z której i czy będzie to język, w którym owa historia została napisana. Użytkowy sens mitu polega na tym, że daje on subiektywną kontrolę nad tym, co umyka poznaniu. Pozwala to coś zrozumieć, powiązać fakty w logiczną całość, która daje umysłowi poczucie bezpieczeństwa, ochrony przed chaosem. Jeśli więc chce się odczytać mit zgodnie z intencją jego powstania oraz przekazu i zachować jego sensogenną moc, powinno się weń aktywnie zaangażować, tak, jakby był obecny i przez swoje metafory dotyczył bezpośrednio życia czytelnika. Oczywiście, nie powinno to kolidować z logiką i formalną poprawnością rozumowania. Spojrzenie takie nie zapewni co prawda naukowego dystansu, ale czy sama nauka współcześnie nie przejęła częściowo roli mitów, stając się nową mitologią. Znaczne obszary
242
wiedzy, tzw. naukowej, istnieją tylko w języku i są li tylko gawędzeniem. Istotną rolę spełniają w nich metafory i neologizmy, które przypominają czarodziejskie zaklęcia stwarzające byty za pomocą słów, albo antropomorfizacje, w których bezosobowym zjawiskom przypisuje się intencje i charaktery, by niekończącemu się procesowi przemian przyczynowo-skutkowych przypisać jakieś przyjazne interfejsy. Nie można przed tym uciekać. Nasz język opisuje nas. Nie ma żadnego innego języka, który by na przykład w sposób poprawny politycznie – z punktu widzenia matematycznych ideałów – wyraził fakt, że jakaś funkcja „dąży do nieskończoności”. Funkcja oczywiście nie stawia sobie żadnych celów i do niczego nie „dąży”. Ale mówi się, że „dąży”. I możliwe, że właśnie dlatego, iż matematyk wyobraża sobie, że ona faktycznie dokądś „dąży”, chce mu się w ogóle o niej myśleć i dopisywać do historii „przygód” tej funkcji jakieś nowe rozdziały. Mit jako tekst dramatyczny Mit wieży Babel ma sens, bo dziesiątki pokoleń brały go do siebie. W ostatnich latach nie wydarzyło się nic, co by ten proces przerwało czy podważyło jego zasadność. Dlatego można iść tą samą drogą – ale bardziej świadomie. Biblijna opowieść o wieży Babel działa jak katalizator znaczeń. Jest bardzo lapidarna i ma wiele luk. Dostarcza szkieletowej struktury semantycznej, którą czytelnik uzupełnia zgodnie z pewnymi wzorcami w swoim umyśle: z jego wiedzą o świecie i o tym, czego się zwykle spodziewa po ludziach. Są to wzorce uwarunkowane epoką – jej kulturą, stanem wiedzy naukowej itd. Proces czytania tego mitu bardzo przypomina reżyserię sztuki teatralnej. Jest to właściwie skecz z wypowiedziami dwóch bohaterów i didaskaliami narratora. Można go przeczytać, ale co się z niego zrozumie, zależy wyłącznie od tego, jak się go sobie „odegra” w głowie: jakim tonem będą mówić postacie, z jaką mimiką, jak będą odziane, jak będzie wyglądała scenografia, ruch sceniczny, efekty specjalne itd. Jeśli Bóg będzie mówił wysokim głosem ze złośliwym uśmiechem, wyjdzie na zakompleksionego satrapę, a ludzi dla kontrastu można sobie wyobrazić w roli szlachetnych Prometeuszy. Albo odwrotnie: wystarczy ubrać ludzkość w socrealistyczny sztafaż, a od razu podział bohaterów na dobrego i złego się odwróci. Sięgając do pokładów wiedzy bardziej osobistej, w roli Boga czytelnik może ujrzeć ojca słusznie karcącego dzieci za złe zachowanie, który zabiera im zabawki i wygania z piaskownicy albo rodzica niedojrzałego, traktującego swoje dzieci jak konkurentów, który czyni im rozwojową krzywdę, niesłusznie ograniczając swobodę ich kreacji. Wszystko zależy od uzupełnień treści, których w micie nie ma, ale które muszą być do niego dodane, by „mówił” do odbiorców. Nie można w jednym zdaniu podać znaczenia mitu wieży Babel, bowiem zależy ono od punktów odniesienia po stronie czytelnika, czyli faktycznie opowiada on o tych punktach. Więcej się z niego dowie o reżyserze sztuki niż o autorze. Paradoksalnie więc znaczenie mitu informuje nie o „jego znaczeniu”, ale o milczących, może nieuświadomionych założeniach, które przyjmuje się, aby uzupełnić jego szkielet semantyczny i w ten sposób odnaleźć w nim sens. Zatem z historii o wieży Babel czytelnik może się dowiedzieć czegoś o swoim własnym widzeniu świata, co może mu pomóc w intelektualnym przetwarzaniu wiedzy w tym sensie, że prawdopodobnie odkryje w nim filtry, które stosuje też nieświadomie w innych kontekstach. Traktowanie mitu jako zwierciadła czytelnika zbliża go do psychologicznej metody badań projekcyjnych, takich jak odnajdywanie kształtów w plamach Rorscharcha. W rzeczy samej każda interpretacja literacka jest w jakimś sensie działaniem tego typu, co podkreśla XX-wieczna filozofia i krytyka literacka. W zasadzie elementy projekcji można odnaleźć w każdej aktywności poznawczej od wróżenia z chmur do codziennej wymiany zdań,
243
do której podchodzi się z podręcznym zestawem uprzedzeń czy stereotypów, by potem je weryfikować i modyfikować. W niniejszej interpretacji mitu o wieży Babel chodzi jednak o coś więcej – o świadome użycie tej metody do powiązania konkretnej wiedzy w taki sposób, aby spojrzeć na pewne współczesne zjawiska cywilizacyjno-kulturowe w nowym świetle. Powyższa metoda podejścia do tekstu jest sama w sobie bardzo „mindware’owa”, ponieważ dopuszcza polifonię interpretacji i traktuje ją jako bogactwo. Upodmiotowia czytelnika przez wczucie się w jego intencje i uprawnia go do swojej własnej opowieści, czym dla niego jest dany tekst. A więc nie dąży do jednej, „właściwej” interpretacji ani też – co jest równoznaczne – nie traktuje twórczego wkładu czytelnika w kategoriach nihilistycznych – jako relatywizacji sensu, „śmierci autora” itp. W powyższym ujęciu tekst staje się po prostu okazją do poznania samego siebie i drugiego partnera w dialogu, co daje obu stronom poczuciu bezpieczeństwa wynikające ze wzajemnego szacunku. Jest to dobry wstęp do „ograniczania kosztów” współpracy, które często mają charakter psychiczny, oraz do definiowania ewentualnych korzyści wynikających z tego, co ludzi łączy. Analiza tekstu – ludzie Biblijny fragment o wieży Babel jest dość lakoniczny – w czym przypomina bardziej wiersz niż prozę – ale da się z niego wydobyć kilka istotnych informacji. Bohaterem jest cała ludzkość w momencie rozwojowego przełomu. Stanowi ją jedna wspólnota językowa zajęta wędrówką. Po zmianie trybu życia na osiadły, bierze się ona energicznie za urbanizację, z czego można wnosić, że dysponuje pewnym wewnętrznym potencjałem rozwojowym pochłanianym wcześniej przez przemieszczanie. W procesie zagospodarowywania miejsca osiedlenia biblijnej ludzkości kluczową rolę pełni fakt posiadania przez nią jednego języka. Dzięki niemu ludzie zwołują się, ustalają wspólny cel i umawiają sposoby jego realizacji: „I mówili jeden do drugiego: Chodźcie, wyrabiajmy cegłę i wypalmy ją w ogniu”. Ważny jest dla nich aspekt stosowania konkretnej technologii do przetwarzania surowców naturalnych i zastępowania jednych produktów, mniej przetworzonych, innymi, bardziej zaawansowanymi: „mieli cegłę zamiast kamieni i smołę zamiast zaprawy murarskiej”. Proces ten ma znamiona postępu technologicznego, bo w wyniku swoich działań ludzie wyraźnie dochodzą do pewnego momentu, który umożliwia im podjęcie następnego wyzwania: „A gdy już mieli cegłę zamiast kamieni [...]”. Wyzwaniem tym jest budowa miasta i niebosiężnej wieży jako przestrzennego punktu orientacyjnego, który ma pomóc ludzkości w zachowaniu wspólnej tożsamości: „Chodźcie, zbudujemy sobie miasto i wieżę, której wierzchołek będzie sięgał nieba, i w ten sposób uczynimy sobie znak, abyśmy się nie rozproszyli po całej ziemi”. Ostatni fragment warto uzupełnić współczesną wiedzą o relacji człowiek –przestrzeń, by wydobyć z mitu kilka ukrytych implikacji. Po pierwsze, w porównaniu z otoczeniem naturalnym, miasto wytwarza nowy, nienaturalny krajobraz, który zasłania horyzont, co ma istotny wpływ na poczucie tożsamości wspólnoty. W krajobrazie naturalnym – czy podczas wędrówki, czy w obozie lub osadzie, którą często się opuszcza dla uzupełnienia zapasów – człowiek miał często możliwość objęcia swoich ziomków i ich siedliska jednym spojrzeniem, by w ten sposób uzyskać najprostsze potwierdzenie integralności wspólnoty, a więc i swojej doń przynależności. Nawet mieszkańcy lasów budują wioski na polanach, które można objąć jednym spojrzeniem. Struktura przestrzenna miasta, której na co dzień się nie opuszcza, uniemożliwia podobną autoidentyfikację. Po drugie, miasto zaburza tożsamość grupową również w przestrzeni relacji niematerialnych,
244
ponieważ ze swojej natury dzieli obszar zamieszkania na wiele wydzielonych wnętrz. Dla będącego w takim otoczeniu dominujące znaczenie zaczynają mieć granice międzysąsiedzkie i podziały na przestrzeń wspólną i prywatną, natomiast miejsca wspólne zyskują osobne funkcje wyraźnie zdefiniowane przestrzennie: transportową, handlową, publiczną, sakralną. Oczywiście w obozie koczowników czy nawet w przestrzeni naturalnej te funkcje również występują, ale urbanizacja usztywnia relacje między nimi. Miasto stanowi sieć interesów przestrzennych, które są ustalone i trudno zmienne, bo wszystkie razem wyczerpują lokalne zasoby przestrzeni, co powoduje, że zmiana każdej relacji przestaje być neutralna, lecz staje się zawsze korzystna lub niekorzystna dla co najmniej jednej innej relacji. Wobec znaczenia takich partykularnych interesów kwestia jedności schodzi na plan dalszy. Bohaterowie mitu zachowują się tak, jakby zdawali sobie sprawę z tych mechanizmów, bo planują wyposażyć miasto w coś, co w architekturze krajobrazu nazywane jest landmarkiem, czyli punktem orientacyjnym – wizualnym punktem odniesienia pomagającym odnaleźć się w przestrzeni zabudowanej lub naturalnej o ograniczonym widoku. W krajobrazie ukształtowanym przez człowieka rolę tę pełnią budynki o reprezentacyjnym charakterze lub żywotnej funkcji, która przeważnie przekłada się na duże rozmiary budowli. Może to być zamek na pagórku, wieża katedry, ratusz, komin fabryki czy elektrociepłowni. Każda epoka buduje własne tego typu obiekty, co wiąże się w sposób naturalny z faktem, że wymaga to wyjątkowych kosztów. Zatem akt ich wyłożenia jest ekspresją lokalnych hierarchii wartości i dystrybucji władzy. Mogą to być wartości materialne związane z jakąś funkcją techniczną lub niematerialne wyrażające intencję inwestorów zakomunikowania społeczności, co jest – czy powinno być – dla niej najważniejsze pod jakimś względem. Ekspresja tych wartości jest najczęściej wynikiem zarówno świadomych intencji czy ich symptomatycznych manifestacji, jak i obiektywnych uwarunkowań. Dlatego patrząc na dominanty krajobrazu ukształtowanego przez człowieka, bardzo łatwo można odczytać jego krajobraz aksjologiczny. Współcześnie mówią o tym także biurowce firm inwestycyjnych czy ubezpieczeniowych, linie wysokiego napięcia czy maszty telefonii komórkowej. Osobną kategorię dominant tworzą obiekty płaskie, takie jak autostrady czy centra handlowe, które w większym stopniu orientują ludzi w przestrzeni poprzez mapy mentalne, a nie poprzez widoki. Niemniej wszystko, co jest w jakimś sensie duże czy zauważalne w krajobrazie fizycznym, zakodowuje przez złożony system zależności to, co jest ważne czy wpływowe w krajobrazie aksjologicznym lokalnej społeczności. Jedność, nie pycha Patrząc z tej perspektywy, dla biblijnych ludzi najważniejsza jest jedność, a nie władza nad materią czy chęć dorównania Bogu, jak się zwykle uważa. Plan ich można potraktować po prostu jako racjonalny. Ludzie chcą stworzyć budowlę, która pozwoli im naocznie, za pośrednictwem najprostszego, codziennego doświadczenia identyfikować ich wspólną tożsamość. Zadaniem wieży Babel nie jest wypatrywanie niebezpieczeństw czy fetowanie wspólnotowości lecz ochrona tej wspólnotowości przed rozpadem: „w ten sposób uczynimy sobie znak, abyśmy się nie rozproszyli po całej ziemi”. Racjonalność budowy wieży Babel nie rzuca się w oczy, bo rozpad i rozproszenie wydają się immanentną konsekwencją istnienia, a mit nie komentuje przyczyn tego zagrożenia. A jednak po lekturze tekstu od początku można uznać tę lukę za istotne niedopowiedzenie. Stan ludzkości w pierwszych słowach mitu definiuje „jedna mowa”, „jednakowe słowa” i wspólna wędrówka. Dalej, już w życiu osiadłym, sprawny rozwój ludzkości jest efektem jej solidarności w działaniu. Wszystko idzie jak po maśle
245
i nagle ludzie decydują się podjąć wielką inwestycję mającą ich bronić przed rozproszeniem. A więc mają przesłanki, aby sądzić, że ich status quo nie jest dany raz na zawsze. Z tej części mitu płyną dwa wnioski. Po pierwsze, jej dominantą jest jedność biblijnej ludzkości – jako wspólny mianownik „jednej mowy”, solidarnej pracy i obawy przed rozproszeniem – a nie sama wspólnota językowa. Jest to istotne rozróżnienie, gdyż później pozwala precyzyjniej zidentyfikować cele boskiej interwencji. Po drugie, w życiu biblijnej ludzkości musiała zajść jakaś nieopisana wprost, ale fundamentalna zmiana uwarunkowań jej pierwotnego stanu, skoro stał się on niestabilny. W tym ujęciu wieża Babel jest więc dla budowniczych „narządem” społecznej adaptacji w obronie jedności, która musi przetrwać w jakichś nowych, bliżej nieznanych warunkach. Ponieważ ta adaptacja jest tytułowym motywem mitu, należy uznać jedność za cechę, która identyfikuje ludzi jako ludzi. W tym świetle mit o wieży Babel przestaje być opowieścią o zuchwalstwie, a staje się dyskursem o ludzkiej potrzebie społecznej spójności i o sposobach na jej zachowanie. Wieżę Babel można więc traktować jako rodzaj protomindware’u, a właściwie jego materialnego desygnatu: generatora najbardziej pierwotnej „linijki kodu” oprogramowania kapitału społecznego, czyli uświadomionego sensu, że „coś nas łączy”. Co do przyczyn destabilizacji jedności biblijnych ludzi można wnosić, że zagrożenie zbiegło się ze zmianą trybu ich życia. Kiedy wędrowali, zachowywali jedność, ale nie mieli domu. Kiedy zdobyli dom, zaczęli tracić jedność i podjęli działania interwencyjne w postaci budowy wieży Babel. Tak, jakby podczas wędrówki integracja była zawarta w samym wspólnym wektorze ruchu, więc jego zanik stworzył konieczność „przelania” jej w jakąś inną formę – wspólnie zbudowany landmark. Analizując przestrzenne otoczenie mitologicznej ludzkości, można postawić tezę, że wybór takiej właśnie formy jest jej reakcją na zmianę otoczenia z naturalnego na zabudowane. Jak pokazuje współczesna refleksja nad przestrzenią, miasto może powodować społeczne rozwarstwienie. Budowę wieży można więc uznać za przestrzenną „szczepionkę” przeciw temu zagrożeniu. Skoro zurbanizowana przestrzeń nie wychodzi na zdrowie osiadłej społeczności, oczywistym polem reakcji jest owa przestrzeń – należy ją „zakląć”, nadać jej stygmat, odcisnąć w niej pieczęć jedności o tak samo urbanistycznym charakterze, jak urbanistyczny jest charakter niebezpieczeństwa. Geometria świata wieży Babel Podejrzenia o uzurpację boskiej pozycji budzi oczywiście wysokość wieży – „wierzchołek będzie sięgał nieba”. Ale i tu można wskazać racjonalne uzasadnienie projektu. Biblijny tekst o wieży Babel opiera się na wyobraźni alegorycznej, co oznacza silne przetworzenie występujących w nim realistycznych relacji przez metafory i symbole pozwalające na osiągnięcie obrazu o syntetycznym charakterze. Wywołuje to po stronie czytelnika efekt semantycznego „zoomowania”. W pierwszym zdaniu widać mieszkańców „całej ziemi”, ale już w drugim osiedlają się oni na konkretnej równinie jakiegoś kraju. W następnym jest zbliżenie na „wyrób cegieł” i za chwilę na panoramę ich magazynów pozwalających na zbudowanie miasta. Na końcu tego fragmentu tekstu wraca się do perspektywy globalnej: oprócz miasta będą budować i wieżę, ale tę, „której wierzchołek będzie sięgał nieba”, by się nie rozproszyć „po całej ziemi”. Jest to dość istotna transformacja relacji przestrzennych mitu: o ile wcześniej mogło chodzić o grupę ludzi zdolną pomieścić się w ówczesnym mieście, a więc na obszarze, który można przemierzyć na piechotę w ciągu dnia, o tyle na koniec tego wątku chodzi już o odległości globalne, mierzone w tygodniach czy miesiącach podróży – daleko poza horyzont. To dlatego wieża musi być aż do nieba – aby była zewsząd widoczna.
246
Nie jest to wniosek jednoznaczny, bo nie wiadomo, czy fizyczne rozproszenie ludzkości już nastąpiło i niebosiężność wieży ma jej zapewnić symboliczną łączność, czy też ludzie jeszcze się nie rozeszli. W tym drugim przypadku wieża mogłaby być niższa i wtedy ludzie rozchodziliby się po prostu po mniejszym okręgu, aby jej nie stracić z oczu. Skoro jednak mimo to jest zaplanowana do nieba, więc może pełnić rolę „pomnikowej” manifestacji poczucia jedności i tu byłoby w interpretacji miejsce na pychę i zuchwalstwo. Wydaje się jednak, że słowa „po całej ziemi” są „makrośrubą” mitu: mowa już nie o zasiedleniu jakiejś jednej równiny, ale całej ziemi. Można też podejrzewać, że wraz z rozwojem ludzkości w swoim siedlisku pojawiła się jakaś siła odśrodkowa grożąca jej rozproszeniem. Chodzi więc nie o rozwarstwienie społeczne w skali miasta – mimo wszystko nadającego mieszkańcom wspólną tożsamość – ale o całkiem realne rozejście się ludzi po świecie do tego stopnia, że ich poszczególne grupy nie będą się w ogóle ze sobą stykać. I dlatego wieża – jako znak jedności – musi być aż do nieba. Diagnoza ta odzwierciedla obecną sytuację ludzkości, która w pewnym sensie też potrzebuje jakiegoś znaku widocznego „na niebie”, żeby poczuć globalną solidarność w różnych sprawach. Wpadając w kaznodziejski ton, można by upatrywać współczesnej wieży Babel w satelitach, na które są skierowane anteny w każdym niemal domostwie. Odbierany przez nie sygnał telewizyjny zapewnia poszczególnym narodom i pośrednio całej „miejskiej” ludzkości kulturową jedność. Ma ona jednak korzenie komercyjno-konsumpcyjne, a więc pasujące do negatywnego, „babilońskiego” stereotypu wieży Babel. Jedność budowana na wspólnym oglądaniu telewizji nie wzbudziłaby więc raczej akceptacji siły wyższej z biblijnej opowieści. Biorąc pod uwagę dalszą fabułę oraz interpretację mitu, nie o taki mindware tu chodzi. Podsumowując „ludzki” wątek mitu, należy podkreślić, że tekst źródłowy nie sugeruje, iż główną cechą biblijną ludzkości jest pycha, wartością władza, a motywacją chęć „zrównania się z Bogiem”. Z analizy tekstu na plan pierwszy wysuwa się jedność, którą można traktować szerzej niż tylko jako wspólnotę języka. Daje to podstawę do interpretacji mitu bez imperatywu oceny moralnej jego bohaterów, a więc również w kontekście prakseologicznym. Jak się dalej okaże, tekst nie wypowiada się na temat, czy pozbawienie ludzi „jednakowych słów” zamyka im drogę do jedności, co oznacza, że mają oni prawo dążyć do jedności także innymi metodami. Pod warunkiem, że nie będzie to związane z budowaniem. Bóg – domysły Trzeba przyznać, że zachowanie biblijnej ludzkości jest jak najbardziej logiczne, a intencje szlachetne. Osiedli, narobili cegieł i postanowili zadbać o rozwój przestrzenny jednocześnie z zachowaniem dziedzictwa społecznej jedności. Piękny przykład zrównoważonego rozwoju – można powiedzieć. I w tym momencie na scenę mitu wkracza Bóg, który zachowuje się niezrozumiale. Zamiast pochwalić ludzi za osiągnięcia, jest niezadowolony, że w ogóle coś zaczęli wspólnie robić. I znajduje przyczynę: „Są oni jednym ludem, i wszyscy mają jedną mowę, i to jest przyczyną, że zaczęli budować”. Dalej wyjaśnia, dlaczego to go niepokoi: „A zatem w przyszłości nic nie będzie dla nich niemożliwe, cokolwiek zamierzą uczynić”. I czyni odpowiednie prewencyjne działania: „Zejdźmy więc i pomieszajmy tam ich język, aby jeden nie rozumiał drugiego!”. Skutki znamy: „W ten sposób Pan rozproszył ich stamtąd po całej powierzchni ziemi, i tak nie dokończyli budowy tego miasta. Dlatego to nazwano je Babel, tam bowiem Pan pomieszał mowę mieszkańców całej ziemi. Stamtąd też Pan rozproszył ich po całej powierzchni ziemi”. Koniec przekazu. Szukając w tym micie zrozumiałej
247
logiki, należy wejść na obszar tzw. prawdy w fikcji, czyli poza obszar literalnego tekstu, ale będący implikowanym ciągiem dalszym świata przedstawionego. Co prawda ów świat został powyżej opisany przy użyciu wiedzy sformułowanej tysiące lat po stworzeniu tekstu, ale jest ona znana z doświadczenia wspólnego ludziom wszystkich epok. Jednak jeśli chodzi o Boga, będzie to „prawda w fikcji” o nieco innym charakterze, mniej fenomenologicznym, a bliższym teologii. Zapytam więc: O co Bogu – jako postaci tego mitu – mogło chodzić, że potraktował ludzkość tak surowo i irracjonalnie? A może da się również przypisać Jego postępowaniu jakieś racjonalne motywy? Idąc tym tropem, czytelnik na poziomie metodologii znowu zbliża się do mindware’u, ponieważ pytanie: „Dlaczego?” jest w nim ważniejsze niż – „Co?”. Pytanie: „Co?” prowadzi do licytacji, a „Dlaczego?” do negocjacji. Dlaczego Bóg zaniepokoił się potencjalną wszechmocą ludzi, mówiąc, że skoro dzięki swojej jedności zaszli już tak daleko, to „w przyszłości nic nie będzie dla nich niemożliwe, cokolwiek zamierzą uczynić”? Według popularnej interpretacji Pan uznał, że ludzie po prostu za bardzo się rozzuchwalili, zamierzając stać się tak jak On – wszechmogący. Wtedy, po pierwsze, mogliby robić rzeczy, które nie byłyby zgodne z Jego wolą, a po drugie, nie potrzebowaliby łaski Boga. Staliby się niezależni od Niego. A za to przecież już raz zostali ukarani eksmisją z Raju i troskami życia. Zatem być może grzech pierworodny skaził tylko ludzkie wybory nie tylko w wymiarze indywidualnym i interpersonalnym, ale również na poziomie społecznym i dlatego należało przypomnieć tę nauczkę całej ludzkości. Pozostając w logice tego myślenia, można dodać, że Bóg chce być jedynym „znakiem” na niebie świadczącym o jedności ludzi. Chce być jedynym „wspólnym językiem” ludzkości. Dlaczego? Może z zazdrości. Teologia i mistyka chrześcijańska zna pojęcie zazdrosna miłość Boga do ludzi – miłość, która nie znosi konkurencji. A może dlatego, że ludzie nie są samowystarczalni w podejmowaniu rozsądnych decyzji? Będąc zjednoczeni, potrafią działać sprawnie, ale przecież mit nie precyzuje, że mądrze. Zastrzeżenia tego może dotyczyć użyte przez Boga stwierdzenie, że uda im się, „cokolwiek zamierzą uczynić”. Krytyka dowolności „zamiarów” może się odnosić ogólnie do wolności ludzi w spełnianiu ich woli i hierarchii władzy, ale może dotyczyć po prostu jakości planowania, czyli kontekstu czysto prakseologicznego w ramach celu, jakim jest jedność. Opisana w micie ludzkość nie ma z kim walczyć, bo nie istnieją w jej stanie podziały na narody, jednak nic nie wiadomo o jej podziałach klasowych, genderowych, o ich stosunku do eutanazji, aborcji, eugeniki, niewolnictwa czy składania ofiar z niemowląt. Wiadomo również, że ludzkość może się zdegenerować sama w sobie moralnie oraz że może zrujnować środowisko – chociażby budując miasta i wytwarzając wymienioną w tekście smołę. O tym wszystkim mógł myśleć Bóg, mieszając ludziom języki, by się rozproszyli i nie mogli spełniać wszystkich swoich zamysłów. W micie widać jedną grupę działającą jak jeden organizm, jedno miasto i obawę przed rozproszeniem. Możliwe więc, że przez nierozpraszanie się ludzie rozumieli nieskończoną rozbudowę swojego miasta, wychodząc z założenia, że tylko tak zachowają swoją jedność. W tej sytuacji Bóg po prostu uratował ich przed katastrofą urbanistyczną, z jaką często ma się dziś do czynienia. Destrukcyjną interwencję boską w cywilizację ludzi w micie można też wytłumaczyć ludzką potrzebą zrozumienia zasady entropii, polegającą na tym, że cokolwiek ludzie zbudują, to i tak im się to z czasem rozpadnie. Zawsze przecież jest tak, że w końcu przestają rozumieć swój wspólny cel i porzucają plac budowy albo tworzą wiele różnych celów i zaczynają ze sobą konkurować o zasoby potrzebne do ich realizacji. Ludzkość realizuje te scenariusze w całej swojej historii. Małe królestwa nieustannie konkurują ze sobą „na wyniszczenie”, a wielkie imperia rozpadają
248
się same, bo ich opiekunowie przestają rozumieć, po co mieliby je utrzymywać. Przypomina to nieco inny mit – o Syzyfie. Mit wieży Babel pozwala się przynajmniej pogodzić z tą perspektywą: tak jest, bo tak być musi, wola boża. Przełamanie interpretacji Podsumowując ten etap analizy tekstu, można wskazać w micie o wieży Babel dwa podstawowe pnie interpretacyjne. Pierwszy wynika z dychotomii możność–niemożność i rozwija się w logice pytań o relacje czy hierarchę władzy. Drugi wynika z dychotomii właściwy–niewłaściwy i budzi pytania o kryteria oceny środków podejmowanych przez bohaterów mitu w celu rozwiązania ich problemów. W pierwszym pniu można wskazać kilka gałęzi tematycznych, którymi są: • jedność ludzi związana ze wspólnotą języka, • aktywność ludzi w celu jej zachowania, • władza jako sprawne działanie ludzi w efekcie jedności, • władza jako dominacja siły wyższej nad zamiarami ludzi. Jedność ludzi i wynikająca z niej sprawność działania, a także podjęcie przez nich kroków w celu ugruntowania tego stanu rzeczy, są w pełni logiczne i zrozumiałe. Różne interpretacje dotyczą jedynie interwencji Boga. Przypisanie mu konkretnych intencji wpływa na ocenę ludzi. Najprostsza interpretacja skupia się na konflikcie władzy między ludźmi a siłą wyższą (Bogiem lub chaosem). Można ją uznać za projekcję stosunków między ludźmi w realnym świecie. Rozpoznaje się w micie to, co widoczne na co dzień. Kwestią indywidualnych preferencji i projekcji czytelnika jest sposób, w jaki przedstawi sobie ten konflikt i te stosunki w szczegółach, czy której stronie przyzna rację. Są to interpretacje znane i konwencjonalne. Nowe horyzonty sensu w micie o wieży Babel ukazuje rzutowanie go na współczesną wiedzę, która przesuwa punkt ciężkości z pytania: „Kto?” (kto wygrywa? czyje na wierzchu?) na pytanie: „Jak?” (jak bohaterowie zamierzają osiągnąć swoje cele?, a jeśli są to metody wymagające weryfikacji, to pojawia się także pytanie – dlaczego podejmują takie, a nie inne wybory przygotowujące do ewentualnej zmiany założeń?). Do gałęzi tematycznych tego pnia należą: • negatywny wpływ życia w przestrzeni zurbanizowanej na jedność mitycznej ludzkości, • wieża Babel jako adaptacja do życia w mieście mająca zachować jedność ludzkości, • negatywna weryfikacja skuteczności tej decyzji przez Boga. Trzeci punkt podsumowuje wnioski mówiące, że Bóg ocenia przyszłe scenariusze rozwoju ludzkości oparte wyłącznie na ich wewnętrznej jedności jako przeciwskuteczne czy samobójcze. Skuteczność, nie władza Różnica między pierwszą i drugą wiązką interpretacji polega więc na redefinicji szablonu, według którego są porządkowane wszystkie dane. Pierwsza wiązka opiera się na wzorcu „ustalania dominacji w stadzie”, przy czym kwestia wieży Babel pełni rolę kości niezgody, a jedność to oręż, z którego Bóg rozbraja ludzkość, żeby uzyskać przewagę. Druga wiązka opiera się na wzorcu „wybór skutecznego narzędzia”. W tej narracji punktem zawiązania akcji są problemy z zachowaniem jedności, a wieża Babel to tylko pomysł na ich rozwiązania, przy czym nie jest wykluczone, że Bóg też ceni ludzką jedność, natomiast różnice zdań wynikają z oceny kroków podjętych w celu jej zachowania. Interwencja Boga nie
249
jest tu traktowana jako pacyfikacja konkurenta, lecz wcielenie w życie alternatywnej propozycji. Dyskurs w ramach pierwszej wiązki wygasza się samoistnie. Trudno dopowiedzieć coś konstruktywnego do wyników meczu bokserskiego. Druga wiązka rozwija się w różnych kierunkach. Według niej historia wieży Babel jest mitem o drodze do jedności, a nie ludzkiej pożądliwość władzy czy też „strachu” Boga przed jej wszechmocą. Konkurencja i hierarchia postrzegana jako dominacja są przeciwieństwem mindware’u. Określenie redefinicja pomaga skupić się na sensie pierwszej wypowiedzi Boga, która w porównaniu z resztą mitu wydaje się irracjonalna i dlatego po prostu nie jest czytana dość wnikliwie: „Są oni jednym ludem, i wszyscy mają jedną mowę, i to jest przyczyną, że zaczęli budować. A zatem w przyszłości nic nie będzie dla nich niemożliwe, cokolwiek zamierzą uczynić”. Bóg tymi słowami redefiniuje punkt ciężkości mitu – rzuca niejako nowy temat na stół. Warto z tej perspektywy spojrzeć na inne części tekstu. „Pan zstąpił z nieba, by zobaczyć to miasto i wieżę, które budowali ludzie” – zatem co spowodowało Jego reakcję – czy chodziło Mu o miasto i wieżę, czy o samą wieżę? Może gdyby ludzie nie budowali wieży, to Pan dałby im spokój. Wówczas rozproszyliby się – bo wieża miała temu zapobiec. Efekt byłby więc ten sam, jaki Bóg osiągnął, mieszając im język. Czy zatem jednak poszło o konfrontację wokół jedności: priorytetem ludzi było ją zachować, a Boga – zniweczyć? Nie jest to pewne, bo z jednej strony Bóg od jedności zaczyna swoją kwestię – „Są oni jednym ludem, i wszyscy mają jedną mowę” – ale z drugiej wydaje się w ogóle nie zauważać tytułowego rekwizytu: „to jest przyczyną, że zaczęli budować [...] i tak nie dokończyli budowy tego miasta”. Oczywiście, można zakładać, że słowo wieża pozostaje w domyśle. Jednak w tak krótkim tekście ma znaczenie zarówno każde użyte słowo, jak i jego brak. Język Biblii jest precyzyjny i często używa powtórzeń, aby nie pozostawiać jakichkolwiek wątpliwości co do znaczenia tekstu. Wyjaśnię tę wątpliwość na podstawie zakończenia mitu: „[...] nie dokończyli budowy tego miasta. Dlatego to nazwano je Babel, tam bowiem Pan pomieszał mowę mieszkańców całej ziemi. Stamtąd też Pan rozproszył ich po całej powierzchni ziemi”. Znajduje się tu bezpośrednia wzmianka, że Babel to nazwa miasta – nie wieży. A więc miasto jest tytułowym przedmiotem mitu – a nie wieża. Jest to mit o MIEŚCIE Babel. Zatem Bogu – jako bohaterowi tekstu – chodzi o samo budowanie, jego skalę i sprawność, czego symbolem jest miasto, natomiast kwestia wieży, jej roli i niebosiężności to w zasadzie sprawy drugorzędne. Wniosek zdaje się potwierdzać prakseologiczne nachylenie mitu. Reżyserskie projekcje boskich intencji Jak to możliwe, że mimo tak oczywistych przekłamań ta biblijna historia funkcjonuje z wieżą Babel w tytule? Widać tu, jak ważną rolę odgrywa wspomniana wcześniej „reżyseria”, czyli uzupełnianie tekstu o wkład czytelnika potrzebny do „odegrania” biblijnego skeczu w wyobraźni. Czytelnik odczytuje treść mitu przez pryzmat wieży Babel, prawdopodobnie dlatego, że na co dzień boryka się z tymi samymi problemami – chce zbudować coś trwałego, zintegrować jakiś układ, żeby był stabilny, ale to się nie udaje. Szuka przyczyny i dlatego wystarcza mu, że w micie jest nią Bóg, siła wyższa. Wieża symbolizuje władzę i dominację, więc użytkownik mitu traktuje ją jako motyw centralny, bo władza i dominacja (w pewnym zakresie) znajduje się w centrum również jego zainteresowań. Ponadto użytkownik ma świadomość, że w obliczu Boga powinien być wobec tych pragnień krytyczny, co tym bardziej upewnia go, że jedyną motywacją Boga w micie jest ukaranie ludzkiej pychy. Jest tak przywiązany do wizji buntu Stworzenia przeciw Stworzycielowi, że prawdopodobnie nie umie zauważyć informacji sprzecznych
250
z tą wizją. Najważniejsze, że ostateczna interpretacja ma sens i tłumaczy w spójny sposób rzeczywistość, co jest główną rolą mitu. Biorąc pod uwagę pragmatyczną rolę mitu jako narzędzia epistemologicznego, jest on o tym, co służy użytkownikom za wyjaśnienie, jednak nie można na tym poprzestać, jeśli owo zrozumienie ignoruje istotne elementy struktury samego tekstu narracji. Usunięcie wieży z logiki mitu wydobywa na wierzch zupełnie inne znaczenia i otwiera go na „ciąg dalszy”. Jak to już zostało powiedziane, w systemie wina–kara motywy działania Boga są oczywiste, więc czytelnik nie oczekuje z Jego strony żadnych konsultacji czy podpowiedzi. Jeśli jednak odejmie się Bogu tę „gębę”, to można wyjść z innego założenia: że nie chodzi Mu o władzę, lecz o jakość ludzkich planów. Po wizji lokalnej Bóg podważa po prostu kompetencje ludzi do stawiania sobie celów rozwojowych. Zauważa, że zaprogramowany przez Niego mechanizm zaczyna „wyrzucać błędy” i wciela się w rolę informatyka-serwisanta. Schodzi na ziemię i stawia diagnozę, która, nawisem mówiąc, bardzo przypomina wypowiedzi prawdziwych informatyków w podobnych sytuacjach: jest dla odbiorcy-laika zupełnie niezrozumiała i „nie na temat”. Stanowi natomiast początek rozmowy, z której użytkownik sprzętu dowiaduje się, że nie podłączył urządzenia do prądu, nie przeczytał instrukcji oraz jak w przyszłości będzie mógł zapobiec podobnym problemom. Pozostając przy tej analogii, różnica pomiędzy klasyczną a nową interpretacją mitu polega na tym, że Bóg nie pojawia się jako rozzłoszczony szef, który zabiera pracownikowi premię, bo przekroczył swoje kompetencje, lecz jako fachowiec, który może i skarci, ale też podpowie, co poprawić. W ten sposób Bóg zmienia się z siły karzącej w „siłę wiedzącą”, a co więcej, w „siłę mówiącą”. Zmianę tę dobrze ilustruje zamiana tytułowego rekwizytu z wertykalnej, jednowymiarowej wieży (ma tylko „wysokość”), która dominuje, na horyzontalne i dwuwymiarowe miasta, które zachęca do dialogu. Władzę się egzekwuje, natomiast o skuteczności można porozmawiać. Mindware jako algorytm działania zawsze szuka takich właśnie interpretacji – które mogą doprowadzić do bardziej konstruktywnych rozwiązań. W tym celu, po pierwsze, rekomenduje odczytywanie działań drugiej strony jako komunikatu, którym chce ona – nawet nieświadomie – coś powiedzieć, a, po drugie, przypisuje im intencje, które dają szansę na dialog. W powyższej redefinicji problematyki mitu przewija się też nowa wartość: relacje władzy. W tym zakresie mindware rekomenduje rozwiązanie ich przez rozproszenie, a nie przez konfrontację, o czym będzie jeszcze mowa. Podpowiedzi W tekście mitu nie ma żadnych bezpośrednich porad skierowanych do ludzi. Można jednak przeanalizować wektory zmian, które następują w micie i wyciągnąć z nich pewne wnioski. Bóg przerywa ludziom urbanistyczno-architektoniczne praktyki i ulegają oni rozproszeniu. Właśnie wtedy miasto otrzymuje imię Babel, czyli po hebrajsku pomieszanie, zamęt, co charakteryzuje stan ludzkości na koniec narracji. Rozproszenie w porównaniu z miastem niewątpliwie przypomina chaos, jednak w porównaniu z pierwotną wędrówką już mniej; jest to raczej zmiana życia koczowniczego na emigrację, z grupowej wędrówki na tułaczkę w podgrupach, a może na pielgrzymkę. W każdym razie zmiana nie wydaje się już tak dramatyczna. Snując swoje plany, ludzie mówią: „zbudujemy sobie miasto i wieżę, której wierzchołek będzie sięgał nieba i w ten sposób uczynimy sobie znak, abyśmy się nie rozproszyli po całej ziemi”. W tym zdaniu nie jest nawet sprecyzowane, czy „znakiem” ma być wieża, czy też całe miasto. W innych tłumaczeniach ten związek jest jeszcze mniej wyraźny (Biblia Warszawska i inne: „i uczyńmy sobie imię, abyśmy nie rozproszyli się po całej ziemi”). Do wieży bardziej pasuje miano znaku, ale bezpośredni związek z zapobieganiem rozpraszaniu
251
ma raczej miasto będące formą skupienia mieszkańców i zapewnienia im względnej samowystarczalności – właśnie po to, by nie musieli migrować. Zapobiegając budowie miasta (nie wieży), Bóg zmusza ludzi do migracji, do podjęcia przerwanej wędrówki. Taki jest bilans zmiany w micie: na początku ludzie wędrują wspólnie, a na koniec osobno. Rozproszenie i utrata jednej mowy wydaje się ceną, którą ludzkość musi zapłacić, aby jej działań nie mógł zdominować jeden wspólny cel wyrażony ideą miasta Babel. W ten sposób została odkryta następna redefinicja znaczenia biblijnej historii: nie język, nie władza, nawet nie jedność, ale migracja jest tym, co pieczętuje wolę Pana. Ludzkość została skazana na ruch. Negatywny wydźwięk tego ruchu jako „chaotycznego” wynika ze statusu jedności jako głównego potencjału ludzkości, który likwiduje Bóg. Wówczas interpretacja mitu staje się kalką historii wygnania pierwszych ludzi z raju. Wystarczy jednak rozdzielić kwestię jedności i jednakowej mowy, by można było potraktować interwencję Boga jako taktyczne rozwiązanie kwestii niepożądanego skupiania się ludzkości na jednym celu. Bóg zachowuje się wtedy jak typowy strateg niszczący infrastrukturę komunikacyjną przeciwnika. Nie dlatego, żeby jej nie lubił, ale by sparaliżować jego zdolności operacyjne: „rozproszył ich […] i tak nie dokończyli budowy tego miasta”. Interwencja Boga względem miasta-wieży Babel przypomina działanie urzędu antymonopolowego, który zapobiega istnieniu jednego dominującego projektu czy produktu na rynku, co nie oznacza, że zabrania handlu. Bóg po prostu postanawia rozproszyć władzę ludzkiego kartelu. Wracam więc do relacji władzy, ale w innym kontekście. Nie chodzi już o prymitywną konfrontację ludzkość–Bóg, lecz o strukturę relacji władzy w samej ludzkości – o jej kapitał społeczny. Kapitał społeczny zamiast wieży Babel Warto w tym miejscu zwrócić uwagę na sposób stosowania w micie trybu rozkazującego w liczbie mnogiej przez ludzi i Boga. Tryb rozkazujący służy transmisji relacji władzy przez delegowanie postanowień swojej woli innym do wykonania. W polskim tłumaczeniu, aby coś zrobić, ludzie muszą się najpierw zwołać i zachęcić do działania („chodźcie”, a w innych tłumaczeniach: „nuże”, „do dzieła”), podczas gdy Bóg omija ten etap i – używając majestatis pluralis – od razu przechodzi do trybu rozkazującego w liczbie mnogiej: „Zejdźmy”. Bóg jest wewnętrzną jednością, więc nie musi sam siebie zachęcać do realizacji swoich zamiarów. W tłumaczeniach angielskich oraz w hebrajskim zarówno ludzie, jak i Bóg otwierają swoje wypowiedzi tymi samymi słowami (come, – בהיyahab) przypominającymi polskie „do dzieła”, co również ma specyficzną wymowę: Bóg w pewnym stopniu przedrzeźnia ludzi, powtarzając ich zagrzewające do wspólnego działania zawołanie, którego przecież nie potrzebuje. Podkreśla to ich ułomność, a Jego autonomię. W Biblii Tysiąclecia to wspólne ludziom i Bogu zawołanie zostało pominięte, bo prawdopodobnie brzmiałoby niezgrabnie, jednak ów aluzyjny sens zachowuje różnica między drugą (ludzie) a pierwszą (Bóg) osobą liczby mnogiej trybu rozkazującego: chodźcie – zejdźmy. Ludzie w pewnym stopniu narzucają sobie nawzajem swoją wolę, kierując swoje słowa do innych (tłumacze nie zachowali zgodności drugiej osoby chodźmy – zejdźmy), podczas gdy Bóg kieruje je do samego siebie. W tych subtelnych rozróżnieniach mit o wieży Babel staje się opowieścią o topologii relacji władzy wśród ludzi. W pierwszej części mitu widać ludzkość idącą od sukcesu do sukcesu. Ma ona całkowitą kontrolę nad sytuacją i pełną moc wykonywania swojej woli. Jest to oczywisty mechanizm, podobnie jak oczywiste jest wkroczenie Boga, który pokazuje, „kto tu rządzi”. Nowością jest inne odczytanie tego, co w micie Biblia określa lapidarnie jako „rozproszenie”. Gdy ludzie
252
nie dysponują „jedną mową”, nie mogą już się nawoływać do osiągania wspólnych celów. Tworzą więc różne cele, ale nie mogą podjąć wysiłku ich wspólnej realizacji, bo po prostu nie potrafią ich sobie nawzajem opisać (nie posiadają już „jednakowych słów”). Muszą więc realizować swoje cele osobno, szukając osobnych zasobów do ich realizacji, stąd rozproszenie, lub „nakłaniać” się do ich realizacji za pomocą władzy: prawa, siły itd. W tym momencie ujawnia się prawdziwa natura tego, co Bóg odebrał ludziom, mieszając ich języki: możliwość bezkonfliktowego rozwiązywania relacji władzy między sobą. Mobilis in mobili Czy zatem Bóg skłócił ludzi? To znów zależy od przyjętego założenia. Jeśli czytelnik uzna, że „jednakowa mowa” jest jedynym pożądanym językowym stanem ludzkości umożliwiającym uniknięcie kłótni, odpowiedź musi być twierdząca. Ale sprzeczna z założoną w Biblii kardynalną cechą Boga jako źródła dobra. Dlatego należy przyjąć założenie, że może istnieć jeszcze jakiś inny, mniej oczywisty stan między jednością a kłótnią. Można ten stan utożsamiać z dialogiem, dla którego biosem, systemem operacyjnym oraz aplikacjami wraz z interfejsami użytkownika jest mindware, a więc kompetencje potrzebne, aby ów dialog uprawiać w sposób sieciowy – adekwatnie do stanu rozproszenia rozmówców. Bóg uznał, że to, co mogliby ludzie w swojej absolutnej jedności wymyślić i zdziałać, byłoby jednak gorsze od kłótni, ale nie zabronił rozproszonym ludziom dążyć do jedności innymi drogami. Nie wyraził jedynie zgody na jedność prowadzącą do skutków symbolizowanych przez miasto Babel – stabilną relację ze „znakiem” jedności, bierny stan „odbioru” przekazu z integracyjnego landmarku. Współcześnie tę sytuację wyobraża postać siedząca nieruchomo na kanapie przed telewizorem, a jej przeciwieństwem jest osoba angażująca się w życie rodzinne, relacje z przyjaciółmi itd. Odpowiedź, jak żyć „bez telewizora”, „jednej mowy”, centralnego punktu odniesienia – nie jest oczywista. Jedna z linii semantycznej tektoniki mitu przebiega między stanem ruchu i bezruchu a także równowagi i destabilizacji. Biblijny tekst pokazuje następującą zmianę stanu ludzkości: ruch–spoczynek–katastrofa opisana jako rozproszenie. Nie wiadomo tylko, czy katastrofą jest obecny w tekście ruch-destabilizacja czy też ów ruch jest środkiem zapobiegawczym przed jakąś przewidywaną przez boską opatrzność przyszłą destabilizacją zaledwie w micie zasygnalizowaną. Nowa interpretacja sugeruje, że wbrew stereotypom bezruch może prowadzić do destabilizacji, a ruch do równowagi. Jak opisać równowagę w ruchu – oto wyzwanie. Podpowiedzią może być dewiza kapitana Nemo, bohatera powieści Juliusza Verne’a 20 tysięcy mil podmorskiej żeglugi: mobilis in mobili, czyli ruchome w ruchomym lub zmienne w zmiennym. Tak mogłaby brzmieć najkrótsza definicja równowagi dynamicznej i najkrótszy opis filozofii mindware’u. Tekst mitu o wieży Babel kończy się więc w sposób dramatyczny i bez rozstrzygnięcia: ludzkość już nie „buduje”, ale też przestaje się dogadywać. Klasyczna interpretacja mitu w tym miejscu się kończy, bo nie ma już żadnego semantycznego paliwa – była zbrodnia, jest kara i koniec. Nowa interpretacja kończy się wielokropkiem i pozwala jednak zauważyć pewne „produkty rozpadu” pierwotnego stanu ludzkości, czyli tego, co pozostaje po katastrofie. Są to: uratowany mimo wszystko ideał jedności, ruch będący czymś w rodzaju nieustannej migracji i otwarta możliwość zarządzania międzyludzkimi relacjami władzy, choć bez szans na osiągnięcie stabilnego stanu. Powiązanie tych okruchów ze sobą wykracza poza interpretację mitu, nawet na najszerszym obszarze jego „prawdy w fikcji”. Nabierają one znaczenia dopiero wtedy, jeśli uzna się ów mit za formę otwartą, do której można własnoręcznie dopisać szczęśliwe zakończenie.
253
Szczęśliwe zakończenie Mit wieży Babel zostawia furtkę do działania w postrozproszeniowej rzeczywistości. Nie poprzestaje na potwierdzeniu boskiej władzy, lecz zachęca do refleksji, dlaczego Bóg interweniował tak, a nie inaczej. Nie daje nadziei na ponowne zjednoczenie ludzkości, ale też nie zamyka drogi do jej kultywowania w stanie nieustannego ruchu. Władzę się dzierży lub sprawuje, władzy się podlega i podporządkowuje. Drogą można podążać. Odpowiedzią na pytanie, jak kultywować jedności w ruchu, jest idea mindware’u. Jego podstawę tworzy dialog, który rozprasza relacje władzy, prowadząc do empatii i zapobiegając konfliktom. Taki nieustanny dialog może być alternatywną formą aktywności, która pozwoli ludzkości osiągnąć pierwotny stan wędrówki pozwalający przywrócić układowi równowagę jedności i ostatecznie zamknąć mit wieży Babel. W tym dialogu jakość komunikacji powinna być przedmiotem szczególnej troski osób biorących w niej udział. Nie jest bowiem istotny jego utylitarny wynik, ale zbliżenie się jego uczestników do siebie – jedność. Rozproszenie i pomieszanie języka pozwala gromadzić różnorodne doświadczenia, które można łączyć w procesie komunikacji. Wynikiem oddziaływań jest rodzaj komunikacyjnej homeostazy, która stanowi złoty środek między wędrówką a miastem. Bóg pomieszał ludziom mowę, aby nie mogli nic zbudować. Ludzie nie mogą nic zbudować, aby musieli ze sobą rozmawiać.
254
Sztuka mediów
Mindware – sztuka wobec technologii cyfrowych w Lublinie Marta Ryczkowska, Zbigniew Sobczuk
257
Opisując w niniejszym tekście działania artystyczne, zrealizowane w ramach projektu Mindware. Technologie dialogu, zwracamy uwagę na kilka aspektów dotyczących ich powstania. Naszym zamiarem jest: omówienie poszczególnych idei oraz osadzenie ich w rzeczywistości artystycznej i medialnej; podkreślenie dialogicznego i komunikacyjnego charakteru dzieł; znalezienie możliwych odniesień w teorii mediów, filozofii, socjologii, historii sztuki; wskazanie relacji osobistych doświadczeń artystów, którzy zgodzili się uczestniczyć w procesie wielomiesięcznego kształtowania swoich koncepcji zarówno wobec głównej idei mindware, jak i w odniesieniu do kontekstu problemowego oraz lokalnego. Ważną częścią opisów jest pokazanie, jak poszczególne dzieła lub działania zmaterializowały się w przestrzeni miasta, czy też zostały wyobrażone w przestrzeni wirtualnej. * Artystyczna część projektu Mindware. Technologie dialogu stała się mariażem sztuki i technologii, rozgrywającym się w przestrzeni publicznej, stawiającym akcent na to, co w niej najbardziej istotne. Wszystkie zaprezentowane realizacje łączyła nadrzędna myśl, że technologia nie rozwija się w próżni. Jest bezpośrednio zintegrowana z ludzkim życiem, wynika z niego, otacza je – mimo częstego oporu i niezrozumienia. Mindware stał się ogniskiem uwagi uwypuklającym podmiotowość i oswajającym technologię jako byt, który rozwija się równolegle (nie w oderwaniu od człowieka, lecz w pewnym stopniu na przedłużeniu tego, co fizyczne i ludzkie) i niweluje dystans pomiędzy zaawansowaną technologią a kontekstem społecznym. Dzieła mindware’owe zostały osadzone w kontekście topografii i historii miasta, tym samym silnie sprzężone z lokalnym genius loci. Z jednej strony, pokazały współistnienie technologii ze sztuką, z drugiej – ujawniły sposoby, w jaki sztuka i technologia mogą się sycić sobą nawzajem, dostarczając sobie bodźców. Napięcie między fascynacją technologią a kwestiami społeczno-politycznymi i artystycznymi stało się wyjątkowo widoczne i namacalne. Część dzieł powstała bez użycia technologii, w sposób analogowy, jednak ich technologiczny charakter przejawia się w bardzo mocnym odniesieniu do problemów i zjawisk społecznych, komunikacyjnych i medialnych powodowanych rozwojem cywilizacyjnym i technologicznym. Grupa Dotka: Barbara Dzierań, Urszula Kowal i Justyna Zubrzycka stworzyły interaktywną instalację z użyciem materiału biologicznego, zatytułowaną Masowy BioOrnament. Dużych rozmiarów obiekt przypominał mikrolaboratorium: w przezroczystej gablocie znajdowały się szklane naczynia połączone siecią elastycznych rurek. W każdym z nich pływały zielone organizmy, tzw. protisty. Odbiorcy mieli możliwość wpływania na kształt bioinstalacji – na oddzielnym postumencie znajdował się touchpad, którego użycie uaktywniało przepływ odżywki w silikonowych złączach i jej przesączanie się do szklanych płuczek z glonami. Ludzki dotyk stanowił zatem czynnik składowy, warunkujący cyrkulację substancji. Częstotliwość ludzkiej interakcji z obiektem wpływała bezpośrednio na wzrost masy i zmianę barwy glonów. Podstawą do działania artystek z grupy Dotka była teoria masowego ornamentu, sformułowana przez Siegfrieda Kracauera w zbiorze esejów Ornament der Masse opublikowanym w 1927 r. „Miejsce, jakie dana epoka zajmuje w procesie historycznym – pisał niemiecki teoretyk – można określić znacznie trafniej na podstawie jej powierzchownych, mało znaczących zjawisk niż w oparciu o jej własne sądy o sobie. Podstawowe treści epoki i jej niedostrzegalne odru-
259
chy objaśniają się wzajemnie”1. Niedostrzegalne na pierwszy rzut oka odruchy układają się w figury – oderwane od znaczeń formy, które tworzą masowy ornament. Ciała poruszające się jak w kalejdoskopie, obserwowane w makroperspektywie stanowią nieuświadomioną emanację danej epoki. Kracauer odwołał się do baletu, marszów, pracy robotników w fabryce – tego rodzaju ludzkiej aktywności, która podlega dyscyplinie i synchronizacji, dzięki którym ujawnia się czysta struktura linii i bogactwo wzorów. Jednocześnie jest ona wysoce racjonalna. „Ornament nie wyrasta z wnętrza rzeczywistości lecz pojawia się niejako nad nią. Także aktorzy nie ogarniają całości obrazu na scenie, choć biorą udział w jego tworzeniu” – pisał Kracauer2. Założeniem artystek z grupy Dotka była wizualizacja masowego ornamentu, który współcześnie zdaje się tworzyć wszelkie formy manipulacji interfejsem – kompulsywne klikanie myszką, przesuwanie palcem po ekranie smartfona, pisanie na klawiaturze. Nakładające się na siebie ruchy powtarzane setki razy włączają użytkowników w strukturę przepływu informacji. Jednoczą ich we wspólnocie, która ma określony kształt i charakter, jest znakiem tych czasów. Artystki zwróciły uwagę na paradoks interaktywności – dostępność narzędzi i łatwość ich obsługi umożliwia natychmiastową komunikację i zbiorową partycypację, a jednocześnie stwarza pewną iluzję. „Często nieświadomy użytkownik pełni rolę zaledwie nośnika danych. Sama interakcja staje się mechaniczną czynnością, nieintencjonalnie składającą się na pewne zjawiska”3. Interakcja stała się w ostatnim czasie słowem wytrychem sztuki współczesnej – przeniesienie punktu ciężkości na odbiorcę dzieła spowodowało zachwianie proporcji i wykreowało iluzję współdziałania, współtworzenia. Zostawienie przestrzeni dla odbiorcy jest nieraz maskowaniem mankamentów nadawcy. W tym przypadku jednak położenie nacisku na dotykowy interfejs ma jeszcze inne znaczenie. Kieruje uwagę na powszechne zjawisko „klikalności” – naciskając przycisk, można spodziewać się natychmiastowej reakcji systemu, automatycznych rezultatów w świecie cyfrowym wywołanych prostym fizycznym gestem. W samym sercu skomplikowanej struktury (będącej wynikiem interakcji człowieka z systemem) leży żywy organizm – glony. Występują one w przyrodzie bardzo powszechnie, często wchodzą w układy symbiotyczne z innymi żywymi stworzeniami, ich nadmierny rozrost zaś jest prawdziwą plagą, gdyż zaburza równowagę ekosystemu. Sposób, w jaki funkcjonują, może być zatem interpretowany jako nastepna metafora – zbiorowości, powtarzalności, nieograniczonej multiplikacji i jej zgubnych efektów. Instalacja została usytuowana w centrum handlowym, będącym idealnym wycinkiem masowego ornamentu obecnych czasów. Kalejdoskop nieuświadomionych, obsesyjnie powtarzanych ruchów i zachowań powstaje na kilku poziomach, które nakładają się na siebie, tworząc reprezentatywny obraz racjonalnej struktury, w jakiej jest się uwikłanym. Uwaga Andriya Linika skupiła się na powiązaniu idei, będącej wyabstrahowanym fragmentem rzeczywistości komunikacyjnej osadzonym w podkreślającym ją kontekście, z zasobami Internetu, w celu tworzenia efemerycznych obrazów. Dla wyeksponowania swojego dzieła artysta wybrał sprzyjającą medytacji i modlitwie przestrzeń świątyni. W lubelskim kościele ewangelicko-augsburskim umieścił interaktywną instalację Aiolos. Ideą było utworzenie dialogu 1 2 3
S. Kracauer, Ornament z ludzkiej masy, 1927 [w:] Wobec faszyzmu, red. H. Orłowski, przekł. C. Jenne, PIW, Warszawa 1987, s. 11. Tamże, s. 13. Organiczna reprezentacja zjawiska społecznego [w:] Mindware. Technologie dialogu – katalog wystawy, Lublin 2011, s. 7.
260
pomiędzy trzema elementami: człowiekiem, oprogramowaniem a Internetem. Artysta zainstalował oprogramowanie będące medium do tworzenia „obrazów” zbudowanych z informacji wyszukiwanych w Internecie. Program spełniał rolę artystycznego interfejsu komunikacyjnego, który umożliwiał powstanie struktury wizualnej złożonej z elementów komunikacji: różnorodnych metatagów, ikon, fragmentów interfejsów, obrazów i tekstów. Działał na zasadzie algorytmicznej interpretacji tekstu i tworzył tymczasowe obrazy w zależności od strategii, przyjętej przez uczestników. Program był dla nich równorzędnym partnerem, reagował na ich polecenia, szukał, pytał, znajdował odpowiedzi, potrafił również przeszukiwać sieć samodzielnie. Na bieżąco archiwizował wyszukiwane informacje, tworząc hipertekstowy kosmos lub chaos zależnie od wpisywanych, kluczowych słów i komend, stając się „zakomponowanym” obrazem lub tylko szumem przepływającej informacji. Andriy Linik tak opisał swoją instalację: „Idea Aiolos polegała na stworzeniu kontekstu sytuacyjnego, w którym rola software’u i jego użytkowników dopełniałyby się nawzajem. Użytkownicy wpisują polecenia, a program używa ich do wyszukiwania w internecie określonych treści”. Wnętrze kościoła zostało odpowiednio zaaranżowane – przy wejściu do nawy głównej, tuż za kruchtą, umieszczono lśniący, czarny kontuar. Na nim znajdowały się klawiatury, terminale umożliwiające komunikację z systemem. Prezbiterium wypełniał monumentalny, prostokątny biały ekran, rozciągający się od sklepienia do posadzki. Na wertykalnej płaszczyźnie wyświetlały się linie wpisywanego tekstu, skodyfikowane wiersze poleceń, będące odpowiedzią na interakcję odbiorców oraz obrazy złożone z wyszukanej przez program informacji. Struktura pojęć i obrazów pokazywała drugie dno słów – w pewnym stopniu podszewkę Internetu. Surowa i medytacyjna przestrzeń kościoła zintegrowała się z przestrzenią łączności i przepływu informacji, tworząc całość o niemal mistycznym wymiarze. Świat wirtualny i świat sakralny przenikały się, praca została nazwana imieniem starożytnego boga wiatru. Aiolos uosabiał tu nieuzasadnioną, aprioryczną siłę, która zdmuchiwała i reorganizowała segmenty i symbole kodu – przemieszczając je i tworząc zupełnie nowe konfiguracje, nie ustając przy tym w pytaniu o ich źródło i pierwotny sens. Martin Bricelj Baraga stworzył postać publicznego awatara, wygenerowanego na przecięciu świata wirtualnego i realnego. Public Avatar to projekt performatywny, kostium, który umożliwia noszącej go osobie oscylowanie na granicy dwóch rzeczywistości. W trakcie realizacji osoba będąca Awatarem wypełniała polecenia, wydawane jej przez internautów za pomocą strony internetowej. Public Avatar stanowił próbę wypełnienia luki pomiędzy cyfrowym komunikatem a rzeczywistością, którą można odczuć, zbliżenia obu tych obszarów. Funkcjonował przez chwilę jako tajemnicze medium odbierające sygnały z centrum dowodzenia i przekazujące je na realny grunt. Postać poruszała się po Lublinie w swoim rytmie. Performance, który powstał w wyniku działań publicznego awatara, łączył elektroniczny i fizyczny wymiar życia społecznego. Dla sterujących nim przez Internet ludzi był on wciąż postacią wirtualną, nad którą sprawowali kontrolę – mimo iż spacerował ulicami miasta. Po zalogowaniu się na stronę internetową, przeznaczoną do „obsługi” publicznego awatara, uczestnicy mogli wydawać polecenia on-line oraz obserwować jego poczynania na ekranie swoich komputerów dzięki towarzyszącej mu kamerze. Jego ruch w przestrzeni i obecną pozycję odwzorowywała także postać na mapce widoczna na ekranie. Uczestnicy tej internetowej gry wypełniali jego „pamięć” wymyślonymi przez siebie zadaniami – nieraz banalnymi, a nieraz bardziej złożonymi, związanymi z wnikaniem w społeczne sytuacje i miejską codzienność.
261
Awatar kolejno wcielał je w życie. Rozmawiał z przechodniami, śpiewał piosenki, jechał autobusem. Dla mieszkańców Lublina jawił się jako przybysz z obcej planety, kierowany przez nieznane siły – jego nieprzystawalność do miejskiej rzeczywistości podkreślał specjalny uniform z przytwierdzonymi doń urządzeniami nadawczo-odbiorczymi. W adaptacji tego projektu awatarami było się trzech mieszkańców Lublina, którzy przez kilka godzin przemierzali miasto, wykonując otrzymane polecenia. Konstruując swojego awatara Baraga podkreślił napięcie pomiędzy stroną wirtualną, gdzie wszystko jest możliwe, a ludzką, gdzie obowiązują pewne regulacje dotyczące indywidualnych i społecznych zachowań. Publiczny awatar, będąc kompilacją tych dwóch rzeczywistości, zmuszał do refleksji nad tym, jakie rządzą nimi prawa. Strona internetowa i możliwość wydawania komend dały uczestnikowi gry złudną kontrolę nad awatarem i jednocześnie pokazały mu jego własne ograniczenia. Internauta nie wydałby awatarowi polecenia, aby stanął na środku ruchliwej ulicy lub skoczył z dachu ratusza – gdyż był świadomy, że pod wirtualnym kostiumem kryje się prawdziwy człowiek. Artysta zasygnalizował zatem etyczne, moralne konsekwencje i bariery będące w rezultacie przenikaniem się światów. Pokazał również, że awatar nie jest jedynie zaprogramowanym robotem – nie tylko wypełnia polecenia, ale również wchodzi w interakcje, wpisuje się w społeczny pejzaż miasta, krąży po ulicach i styka się z innymi, nie mając w pełni kontroli nad tym, co wydarzy się w wyniku tego. Bezpieczny, przewidywalny, aprioryczny świat cyfrowy zaprogramowany według określonego, ograniczonego scenariusza został bowiem zamieniony na miejską dżunglę, gdzie sytuacja może zmieniać się w trudnym do przewidzenia ciągu zdarzeń. Projekt Yuriya Kruchaka Net of the Dream, podobnie jak pozostałe, wchodzi w obszar społeczny oraz stawia pytanie o wirtualną i realną komunikację. Realizacja powstawała w trakcie warsztatów prowadzonych w kilku lubelskich instytucjach: Dzielnicowym Domu Kultury „Bronowice”, Domu Kultury „Skarpa”, Miejskiej Bibliotece Publicznej (Filia nr 30), w siedzibach Fundacji „Nieprzetarty Szlak” oraz Stowarzyszenia Pedagogów i Animatorów „Klanza”. Uczestnicy spotkań tworzyli obiekty, które finalnie zostały połączone i utworzyły zwartą strukturę. Każdy z obiektów był przestrzenną formą złożoną z okręgów spowitych białą tkaniną. Uczestnicy warsztatów malowali na niej farbami motywy i teksty, które dotyczyły pojęcia dialog. Tworzyli dla niego wizualne odpowiedniki – abstrakcyjne i figuratywne. Celem projektu była integracja na różnych poziomach – dotycząca różnych środowisk twórczych w Lublinie, a także przestrzeni miasta i jej aktywnych użytkowników. Każda z grup wyruszyła w triumfalny pochód po mieście, niosąc barwne obiekty. W działaniu manifestowała się awangardowa idea zjednoczenia sztuki z życiem i społecznej partycypacji. Ważnym aspektem projektu było wskazanie na miejsca peryferyjne, lokalne ośrodki kultury, które połączyły swoje siły, tworząc pięciosegmentowy obiekt – symboliczny interfejs lubelskich środowisk twórczych, zaprezentowany w centrum miasta. Artysta wspólnie z uczestnikami projektu wytyczył szlak wędrówki, tworząc społeczno -historyczną mapę z trzema kategoriami punktów orientacyjnych – wykluczeniem, pograniczem i dialogiem. Radosny pochód niósł trójwymiarowe obrazy przypominające chińskie smoki. Zaprezentowany charakterystyczny element kultury Chin jest kojarzony z radosnym Tańcem Smoka podczas Festiwalu Latarni na powitanie Nowego Roku. Wijące się barwne postaci smoków są podtrzymywane na kijach przez tancerzy. Lubelski korowód defilujący ulicami miasta z malarskimi transparentami nasuwał skojarzenia z dalekowschodnią tradycją, ale również ze społecznym,
262
publicznym rytuałem w sensie ogólnym, oderwanym od kontekstu. Wspólna, radosna celebracja powstała wskutek skumulowania twórczego potencjału i różnorodności, wynikającej z odmiennej specyfiki każdego środowiska. W opisie idei zawartej w informatorze można było przeczytać: Założeniem permanentnego happeningu jest próba znalezienia odpowiedzi na kluczowe pytania: jak można uzyskać równowagę, połączenie pomiędzy analogową kulturą off-line, która jest ściśle związana z charakterem miejsc zamieszkałych przez ludzi, a współczesną, cyfrową i wirtualną kulturą on-line, gdzie nie są ważne miejsca, w których się żyje, ale przynależność do pewnych społeczności; jak utworzyć więzi i łącza pomiędzy ludźmi reprezentującymi te odmienne kultury i jak zaangażować ich we wspólny proces twórczy4.
W działaniu Kruchaka ujawniła się owa dwoistość – lokalność i charakter każdej z grup i wszystkich razem w odniesieniu do miejsca – przestrzeni publicznej Lublina, a także pewien uniwersalny przekaz, który powstaje niezależnie od miejsca i podkreśla spontaniczne więzi międzyludzkie. Celem artysty, jak sam mówił, było „zbudowanie nowej sieci, która byłaby oparta na lokalnej przestrzeni i byłaby ściśle z nią związana, w której mogłyby wzajemnie oddziaływać na siebie społeczności off-line i on-line. Sieć ta byłaby jednocześnie artystyczna i społeczna”. Warsztatową metodę pracy przyjął także Paweł Janicki, który wspólnie z grupą uczestników tworzył projekt irReal <-> irBorg. Janicki jest artystą, pracującym w sferze nowych mediów, który pokazuje kreatywne użycie narzędzi informatycznych, języków oprogramowania i kodowania informacji. Warsztaty służyły wypracowaniu strategii, wykorzystującej interakcje z ludźmi i z miejscem, której można używać ad hoc w różnych przestrzeniach. Strategia ta miała dotyczyć rzeczywistości nadpisanej – takiej, jaka nie jest przestrzenią rzeczywistą, lecz równoległą, dostrzegalną w szczególnych okolicznościach i za pomocą szczególnych środków. Warsztaty służyły projektowaniu w obszarze miasta wirtualnych przestrzeni, które odsyłały do realnie istniejących miejsc – wolnych od komunikatów reklamowych. Punktem wyjścia były zarejestrowane przez poszczególne osoby widoki miasta w postaci krótkich form filmowych. Artysta wspólnie z uczestnikami warsztatów pracował nad kodem oprogramowania, które umożliwiałoby wyświetlanie filmów o Lublinie dzięki tagom, które je uaktywniały. Warsztatowicze uczyli się, jak budować służącą temu aplikację i jak wygląda struktura danych, przyporządkowanych temu zadaniu. Janicki pokazywał im modularne środowisko do tworzenia struktur interaktywnych i sposób, w jaki można nimi manipulować. W rezultacie miała powstać instalacja w przestrzeni publicznej stworzona między innymi z obrazu wyświetlanego na miejską fontannę. Zamysł w przewrotny sposób nawiązywał do audiowizualnego projektu Briana Eno – multimedialnej rzeźby, wygenerowanej na ekranie wodnym, zaprezentowanej podczas Europejskiego Kongresu Kultury we Wrocławiu w 2011 roku. O ile w przypadku pracy Eno chodziło o zabieg jedynie estetyczny, spektakularny, ale w wymowie raczej powierzchowny, o tyle warsztatowicze Pawła Janickiego chcieli posłużyć się ruchomym ekranem fontanny, aby stworzyć interaktywną projekcję o charakterze społecznym. Miała powstawać przy minimalnym nakładzie środków technicznych, poprzez uruchamianie kodów. Praca warsztatowa była swego rodzaju bazą – podstawową wiedzą, łączącą zręby 4
Społeczny interfejs wędrujący ulicami miasta [w:] Mindware. Technologie dialogu – katalog..., s. 9.
263
tworzenia oprogramowania i zagadnienia związane ze sferą wizualną – która mogłaby być wykorzystywana w procesie edukacyjnym. Artysta wcielił się w rolę nauczyciela pokazującego tajniki i arkana swojego arsenału twórczego, świadomie rezygnując z roli artysty-prestidigitatora – prezentującego tylko wizualne efekty swojej pracy. W taki oto sposób Janicki opisał swoją koncepcję: Wydaje mi się, że najmocniej zauważalny kierunek rozwoju sztuki medialnej to formuła kliencka – twórcy i publiczność wykorzystują na swój sposób, tj. wypełniają własną treścią, technologie zaproponowane przez formację, którą Bruce Sterling świetnie określił onegdaj jako „kompleks militarno-rozrywkowy”. Przyznaję, że mocno mi nie odpowiada ten kierunek. Postanowiłem więc w Lublinie pracować z osobami, które – jak ja – będą szukały innych dróg rozwoju: budowania własnego twórczego środowiska, próby spojrzenia na możliwości otaczającej nas rzeczywistości w nietypowy sposób.
Darija Medić osadziła swój projekt w zupełnie odmiennym medium i przestrzeni – niewidzialnej i wyobrażonej, jednak jej działanie miało podobny, społeczny i komunikacyjny, charakter. Serbska artystka zaanektowała radiową przestrzeń miasta, wykorzystując przy tym nadajniki o dużym i małym zasięgu. W swojej pracy, zatytułowanej On the air browser radio show, pokazała, w jaki sposób Internet może funkcjonować w radiu. Praca Medić miała dwie odsłony – pierwsza wiązała się z krótkimi, kilkuminutowymi etiudami dźwiękowymi, opatrzonymi komentarzem autorskim i kuratorskim, cyklicznie emitowanymi w Radiu Lublin (o zasięgu lokalnym i regionalnym), druga zaś była powiązana z działaniem społecznym w przestrzeni miasta przy wykorzystaniu specjalnego oprogramowania, służącego do radiowej emisji internetowych komunikatów na niewielką odległość. Punktem wyjścia działań Medić były hasła, wpisywane do wyszukiwarki internetowej. Artystka zwróciła uwagę na sferę wirtualną, która jest intensywnie i dość bezrefleksyjnie eksplorowana. Codziennie użytkownicy Internetu wstukują w google setki słów, surfując po cyfrowym morzu danych. Internet stał się przestrzenią zbiorowej wiedzy, miejscem codziennej społecznej praktyki związanej z czerpaniem informacji i rozrywki. Najczęściej wyszukiwane hasła tworzą intrygującą warstwę zbiorowej wiedzy – metawiedzy o funkcjonowaniu i zasobach Internetu. Artystka przygotowała pięć tematycznych zapisów. Odwróciła schemat wyszukiwania danych, swoją strategię określając jako: reverse search engineering. Dokonała specyficznego przełożenia informacji, znalezionych w Internecie, tłumacząc strumień danych za pomocą translatora mowy. W efekcie powstawał gwar, oddający to, co w danej chwili interesowało internautów – rodzaj dadaistycznego poematu, utkanego z przypadkowych słów zaczerpniętych z cyfrowej rzeczywistości. Poszczególne sekwencje odnosiły się do różnych aspektów wirtualnego świata, między innymi niedoskonałości komunikacji – tłumaczenie tekstu na język obcy i ponownie na rodzimy przypomina zabawę w głuchy telefon, kodowania emocji i doświadczeń za pośrednictwem blogów i forów, iluzji wolności – obostrzeń i zabezpieczeń różnych portali. Artystka wykorzystała nośniki dźwięku, aby ów strumień danych uczynić słyszalnym – w „medialnej” części projektu stało się nim radio o lokalnym zasięgu, natomiast w równolegle przebiegającej części „społecznej” był to emiter dźwięku o niskiej częstotliwości. Działanie Medić było próbą odkodowania rzeczywistości zapisanej w formie zerojedynkowej i przedstawienia jej ponownie w formie analogowej. Przefiltrowanie jej przez wielopoziomową przestrzeń radiową wiązało się z badaniem jej kształtu, rozłożeniem na elementarne czynniki i odkrywaniem tego, co się kryje pod jej powierzchnią. Stanowiło jednocześnie audialną wiwisekcję ludzkiej aktywności w Internecie.
264
Drugim elementem pracy Dariji Medić były działania z wolontariuszami i mieszkańcami w różnych przestrzeniach miasta, wykorzystujące wspomniane oprogramowanie. Artystka i jej wolontariusze werbalizowali i wpuszczali w eter strumień danych, który zazwyczaj jest odbierany w formie zapisanych haseł. Za pomocą syntezatora mowy google translate zmieniali ich właściwości, nadawali im inny wymiar. Słowa przybrały kształt zremiksowanej poezji, e-poezji o abstrakcyjnej strukturze egzotycznej sztuki dźwiękowej. Medić szczególnie mocno podkreśliła społeczny i publiczny sens jej performance, rozciągniętego od Internetu przez fale eteru po przestrzeń miejską. Moja praca polegała na publicznych transmisjach radiowych aktywności internetowych. Emitowałam w niezagospodarowanej, hiperlokalnej przestrzeni radiowej wszystko to, co wpisywali do wyszukiwarek „podsłuchiwani” przeze mnie internauci. Weszłam z moimi transmisjami w otwarte przestrzenie publiczne placu Litewskiego, biblioteki UMCS czy targu na Ruskiej, gdzie ludzie działają w zupełnie nieelektronicznych okolicznościach i posługują się analogową tradycją komunikacji. Właśnie w takiej publicznej obecności sztuki mediów, zanurzonych w codziennym życiu zobaczyłam sens tego projektu, miastu i jego mieszkańcom taka przestrzeń jest bardzo potrzebna.
Działanie Medić wskazało na rolę radia jako nośnika informacji, który również podlega kodyfikacji, na pierwszy rzut oka nie tak uchwytnej, jak oswojony już Internet. Akcja położyła nacisk na rzeczywistość informacyjną, która istnieje w innych obszarach niż te, które automatycznie są z nią kojarzone. Ukazała informacje jako twór wielopłaszczyznowy – możliwy do uchwycenia i rozkodowania na wiele różnych sposobów. Dominika Sobolewska umieściła duże obiekty przypominające oczy w różnych punktach miasta – tworząc sieć swoistych terminali, połączonych z centralnym punktem, określonym jako Widzące Miejsce. Wszystkie oczy znajdowały się w przestrzeniach charakteryzujących się dużym przepływem ludzi, nasyconych bodźcami – w siedzibie poczty głównej, na dworcu autobusowym, w gwarnej kawiarni, w bibliotece, w instytucji kultury i w miejskim ratuszu. W kulistych formach zainstalowano kamery, które transmitowały obraz do Widzącego Miejsca. Przekaz z każdej z sześciu kamer można było zobaczyć w opuszczonym, zapomnianym budynku na Starym Mieście w Lublinie, system ekranów wyświetlał obraz w czasie rzeczywistym – pokazując fragmenty z życia miasta w danej przestrzeni i swobodną fluktuację jego mieszkańców. Obiekt-oko zachęcał widzów do pochylenia się i zajrzenia w głąb. Wklęsła, lustrzana płaszczyzna odbijała postać, zniekształcając ją i kierując jej uwagę na umieszczoną w centralnym miejscu kamerę. Przy zbliżeniu twarzy do wnętrza oka odbicie w miarę zagłębiania się w półkulę znikało, aby pojawić się na jego dnie. Z urządzenia rozlegał się łagodny komunikat, zapisany w kilku językach, zapraszający do odnalezienia realnej przestrzeni – Widzącego Miejsca, w której znajduje się zarejestrowany wizerunek. Interakcja z obiektem była intrygującą próbą przejścia na drugą stronę lustra. Hipnotyzujące, lustrzane wnętrze niczym biały królik kusiło do przekroczenia granicy, proponując w zamian inny rodzaj widzialności. Kamera „zabierała” obraz i przenosiła go do tajemniczej sali, ukrytej na starym mieście. Ekrany ustawione w kręgu nasuwały skojarzenia z centrum obserwacji i kontroli, panoptykonem, w którym można patrzeć, nie będąc widzianym. Oczy obserwujące ludzką aktywność w mieście przesyłały skumulowane obrazy, aby wirtualnie zaludnić pustą przestrzeń, opuszczoną w wyniku zmian ekonomicznych i społecznych, symbolicznie przywracając ją do życia.
265
Swój udział w projekcie Mindware. Technologie dialogu artystka tak oto opisała: Mindware w prezentowanej przeze mnie pracy przybiera postać software’u zaaplikowanego do przestrzeni publicznej. Traktowany jest jako oprogramowanie służące do pobudzania mieszkańców i odświeżania w nich chęci odkrywania zakamarków Lublina. Widzące Miejsce zlokalizowane zostało w miejscu zapomnianym, społecznie opuszczonym. Wplotło się subtelnie w obdrapane obszary lubelskiej infrastruktury, doskonale uwypuklając różnicę pomiędzy fizycznymi a wirtualnymi szlakami tu obecnymi. Demonstruje potencjał nowych technologii, które bez rozburzania murów miasta są w stanie budować nowe węzły komunikacyjne. Pokonując trasę z hotelu na Podzamczu do ul. Olejnej, gdzie miałam pojawić się z okazji otwarcia mojego projektu, zatrzymałam się na chwilę na dworcu PKS. Wchodząc do hali głównej, stanęłam oko w oko z jednym z 6 rozlokowanych w Lublinie oczu. Konfrontacja ta pozwoliła mi niejako teleportować moją obecność na ul. Olejną. Moje fizyczne spotkanie z miejscem miało miejsce jakieś 30 minut później. Incydent ten pokazuje, jak zmienia się dziś pojęcie czasoprzestrzeni w obliczu internetu.
Oczy nadały miastu moc patrzenia. Opuszczona przestrzeń na ulicy Olejnej nasyciła się obrazami innych, ruchliwych i gwarnych przestrzeni. Obecność i ruch nie były już zatem przypisane do konkretnego miejsca – przemieszczały się i przetasowywały. Zapośredniczony widok przestrzeni, znanej z codziennego obcowania z miastem, kierował również uwagę na jej realny status i budził refleksję nad tym, czym ona jest i jacy są ludzie, którzy ją zaludniają. Miejsca, które artystka uosobiła, obdarzając je oczami – wiązały się z czekaniem i tymczasowością. Chwilowa obecność w Widzącym Miejscu zmuszała do refleksji nad przestrzenią zastaną i własną pozycją wobec niej. W projekt Dominiki Sobolewskiej była wpisana tęsknota za odzyskaniem przestrzeni publicznej, ukazaniem jej w różnych wymiarach – zarówno wirtualnym, jak i fizycznym, pokazaniem mieszkańców miasta. Podobnie humanistyczny przekaz miało działanie zatytułowane Gra w wartości, realizowane w formule warsztatowej przez Marcina Skrzypka. Pierwsza edycja gry miała miejsce podczas otwarcia projektu Mindware. Technologie dialogu. Brali w niej udział artyści, organizatorzy i wolontariusze. Artyści zostali poproszeni przed przyjazdem do Lublina o przesłanie kilku ważnych dla nich fotografii, wybranych realizacji – architektonicznych, przestrzennych, instalacyjnych, które ich zdaniem miały ponadestetyczny, uniwersalny ciężar. Następnie grupy osób, powstałe ad hoc podczas spotkania, miały wybrać z przedstawionego materiału kilka łączących się ze sobą fotografii, nadać i omówić ich ciąg przyczynowo-skutkowy. Zadaniem graczy było kolektywne interpretowanie symboli i przypisywanie im wartości. Gra w wartości w pozornie lekkim schemacie skrywała poważne pytanie o to, jakim hołdujemy celom, co jest dla nas najważniejsze. Warsztatowe działanie Marcina Skrzypka bezpośrednio wiązało się z komunikacją i badaniem możliwości poruszania się we współczesnym świecie. Kultura nadmiaru i przesyt bodźcami sprawiają, że ludzie codziennie są zmuszani do nieustających wyborów i rewizji własnych przekonań. Podejmowane świadomie, ze znajomością trudnej sztuki eliminacji, pomagają w tym, aby sprawnie poruszać się w dżungli informacyjnej i komunikacyjnej. Następne odsłony Gry w wartości były prowadzone między innymi z grupami seniorów i młodzieży licealnej. Za każdym razem artysta zmieniał punkt wyjścia gry, dostosowując materiał, do którego odnosili się uczestnicy, jak też sposób organizacji gry. Uniwersalny charakter działań Skrzypka pozwolił wykorzystywać
266
ideę gry na wiele różnych sposobów, umożliwiając tłumaczenie zjawisk przez ich syntezę. Jednocześnie idea uwypukliła podmiotowy charakter wszelkich wyborów i decyzji. Mindware, jako świadomy, satysfakcjonujący i wartościowy dialog, okazał się sensem i sednem Gry w wartości. Boris Oicherman w swoim performerskim działaniu Projected city stworzył zwielokrotniony krajobraz Lublina. Artysta spenetrował miasto, przemierzając olbrzymią sieć ulic dzięki specjalnemu wehikułowi, na którym bezpośrednio pracował. Kamera wideo, zamontowana na pojeździe, rejestrowała na żywo obrazy, które w czasie rzeczywistym były rzutowane z powrotem na ulice przez zainstalowane na aucie wideoprojektory. Miasto zostało zatem przykryte swoim własnym, zremiksowanym, przetworzonym wizerunkiem. W efekcie kilkudniowych działań powstał ruchomy spektakl multimedialny z elementami mappingu. Jak informował artysta: Praca została zainspirowana scenariuszem filmowym napisanym przez László Moholy-Nagyego na początku lat trzydziestych. Jego projekt zakładał zamontowanie dwóch luster na ciężarówce, jednego płaskiego i drugiego wklęsłego, skierowanych w obydwie strony. Dwie kamery miały zostać umieszczone na tej samej ciężarówce jadącej ulicami Berlina, filmując obrazy miasta odbijającego się w lustrach. Z powodu nazistowskich ograniczeń dotyczących sztuki projekt nigdy nie został zrealizowany5.
Boris Oicherman wykorzystał ideę Moholy-Nagyego, mając do dyspozycji arsenał współczesnych środków do rejestracji i projekcji. Działanie jego polegało nie tylko na „wzięciu miary” z rzeczywistości, wizualizowania jej, ale także na oddaniu cyfrowego obrazu. Przestrzeń realna i jej cyfrowy ekwiwalent nałożyły się na siebie, artysta bawił się ich niedopasowaniem, tworząc projekcje w ruchu. Działanie zyskiwało dodatkowy walor, kiedy efemeryczne obrazy ślizgające się po kamienicach tworzyły przejmujące wariacje istniejących realnie budynków i ich elementów. Artysta stworzył permanentne sprzężenie zwrotne pomiędzy pozyskanym obrazem a jego wyświetlonym odbiciem, zabieg ten miał prowadzić do ulepszenia obrazu miasta, gdzie przestrzeń miejska i jej odbicie nieustannie się modyfikowały. Oicherman swoją podróż w wyjątkowym wehikule opisał następująco: Ta maszyneria miała być iluminowanym lustrem: postrzegała plenery miasta, przetwarzała je cyfrowo i z dwusekundowym opóźnieniem wyświetlała na ścianach budynków. Dzięki niej miałem szansę poznać Lublin przez pryzmat jego wizualnego klimatu – od schludnej starówki, przez surową ul. Lubartowską aż po poszatkowane i niejednolite okolice ul. Kunickiego. Dla mieszkańców miasta moja praca miała bardziej niecodzienny wymiar. Mogli spojrzeć na miasto w innym świetle, odnaleźć w nim widoki i obrazy, których na co dzień nie zauważają.
W założeniu działanie Projected city było interakcją z odbiorcą, którego Oicherman chciał uczulić na postrzeganie miasta. Dążył do tego, jak mówił, „aby przechodzień stał się bardziej świadomy sytuacji, w której się znalazł”, wprowadzał widza w stan wzmożonego zainteresowania, intensyfikując doznania wzrokowe, podkreślał, retuszował i uwypuklał światłem rysunek miasta. Jednak ulepszony obraz okazał się tylko chwilowym doznaniem, efemerycznym zjawiskiem, znikającym za następnym rogiem budynku, gubiącym się w wąskiej uliczce, rozpraszającym się w przestrzeni placu lub grzęznącym w gałęziach drzew. 5
Miksowanie krajobrazu miasta [w:] Mindware. Technologie dialogu – katalog..., s. 13.
267
Miasto – jako ruchoma, płynna struktura w toku nieustannych przekształceń – została uchwycona także w projekcie Vasiliego Macharadze, tworzonym we współpracy z Tomaszem Malcem. Artyści wykorzystali tu jednak nie fasadowe oblicze miasta, ale jego charakter, historię, doświadczenia ludzi, miejsca. Otwarta i uniwersalna koncepcja gruzińskiego artysty Vasilego Macharadze, została wcielona w życie (dzięki znajomości miejskich zasobów) przez lubelskiego artystę Tomasza Malca. W projekcie Gadające miasto / A Talking city sieć przystanków autobusowych była wykorzystana jako liniowy model komunikacji – angażujący poszczególne, następne punkty do transferu danych. Przystanki stały się punktami nadawczo-odbiorczymi, nośnikami informacji zaś artyści uczynili pasażerów miejskiej komunikacji. Zasięg projektu obejmował trzy strategiczne linie autobusowe i trolejbusowe, prowadzące z północy na południe i ze wschodu na zachód, krzyżujące się w jednym miejscu – przy Parku Saskim. Na każdym z siedemnastu wybranych przystanków znajdowały się plansze z zasobnikami, z których można było pobrać informacje w formie wlepki i przewieźć na inny przystanek w stworzonej przez artystów sieci. Na lewych stronach naklejek umieszczono różne historie związane z miejscem lokalizacji przystanku – w sumie powstało 75 takich opowieści. Z każdej z nich Malec wydestylował jedną frazę, drukując ją po prawej stronie naklejki. Tak przygotowana wlepka „podróżowała” przez następne stacje, aby dotrzeć do miejsca, gdzie uczestnik zdecydował się umieścić ją na białym polu planszy. W ten sposób powstała syntetyczna i zmultiplikowana historia miasta, ruchoma i przemieszczająca się wraz z użytkownikami miejskiej komunikacji. Na podstawie analizy rezultatów wędrujących historii Macharadze stworzył mapę miasta, która pokazała rozmaite powiązania – już nie liniowe, lecz zapętlone i bardziej złożone, metapowiązania wychodzące poza przygotowany liniowy schemat. Efektem końcowym projektu Macharadze i Malca był wiersz o mieście – utkany z pojedynczych, wędrujących fraz. Ewolucja projektu – od poszukiwania prostej struktury, umożliwiającej swobodne dryfowanie miejskich historii, odkrywania innych warstw komunikacyjnych i przedstawiania ich w formie wizualnego haiku – pokazała, że w gruncie rzeczy znajduje się on w nieustającym procesie. Można dopisywać do niego następne punkty, etapy i warstwy, a za każdym razem będą one pokazywać inną wersję lubelskiej historii. Szczególnie ważnym aspektem w dążeniu obu artystów stało się nawiązane interakcji z pasażerami, których udział warunkował zaistnienie i efekt całego działania. Łączność z uczestnikami i ich reakcja stała się kluczowa dla powodzenia misji. Macharadze tak oto opisał przyjętą przez artystów strategię: Ten projekt dotyczy ukrytych połączeń w sieci komunikacji miejskiej przynależnych do sfery pasażerów. Aby ustalić te powiązania, wykorzystaliśmy różne interesujące informacje dotyczące każdego z przystanków – jakiś kluczowy fakt, który opisywałby historię miejsca, coś co mogłoby ludzi zainteresować. Podzieliliśmy te informacje na pojedyncze treści będące rodzajem sygnału przesyłanego z jednego przystanku na kolejny. W rezultacie powstała nowa mapa systemu miejskiej komunikacji, stworzona z połączeń i zależności metasystemowych.
Należy tu jednak dodać, że zhakowanie systemu miejskiej komunikacji udało się dzięki woli pasażerów, którzy, podejmując autonomiczne decyzje, umożliwiali przepływ informacji. Komunikując się z innymi uczestnikami przez interfejs stworzony przez Machardze i Malca, stali się twórcami dzieła – poematu o swoim mieście.
268
Do historii odniósł się również ostatni z prezentowanych w niniejszym tekście artystów, jednak w szerszym, ponadlokalnym i niezwiązanym z miejscem, wymiarze. Arthur Clay stworzył Club Block – realizację zainspirowaną twórczością Henryka Berlewiego. Berlewi reprezentował najbardziej radykalny nurt polskiej awangardy lat 20. ubiegłego wieku; był członkiem Grupy Kubistów, Konstruktywistów i Suprematystów „Blok” działającej w latach 1924–1926; sformułował zasadę mechanofaktury, ogłoszoną w 1924 r.; był również jednym z prekursorów op-artu. Swoje prace tworzył na podstawie idealnie zrównoważonych struktur geometrycznych, wykorzystując liniowy raster. W efekcie powstawały interesujące kompozycje graficzne, którym towarzyszył element ruchu, drgania. Ważnym polem doświadczeń artystycznych Berlewiego było projektowanie mody, w którym wykorzystywał swoje geometryczne kompozycje. Art Clay nawiązał bezpośrednio do struktur graficznych Berlewiego, wykorzystując je do stworzenia opartowskiego pokazu mody. Wzory wyświetlane na sylwetki spacerujących ludzi wraz z wzorami ich ubrań stworzyły serie ruchomych, interaktywnych grafik „od Berlewiego”, zmieniających się dynamicznie pod wpływem ruchu modeli. W efekcie powstał spektakl, w którym antycypowany przez Berlewiego ruch, wywoływany przez rytm geometrycznych kształtów, znalazł swoje dosłowne przełożenie w modzie tworzonej ad hoc przy użyciu efektów optycznych. Sytuację tę Clay określił jako mindwear. Odnosiła się ona, z jednej strony, do mindware – nadrzędnej idei lubelskiego wydarzenia, z drugiej zaś, do wykorzystanej przez artystę problematyki, inspirowanej unikatową modą tworzoną przez Henryka Berlewiego oraz jej ponadczasowemu i ponadtechnologicznemu oddziaływaniu. Oddzielnym elementem, ale powiązanym z głównym wątkiem pracy Club Block, była projekcja w witrynie sklepowej na głównej ulicy Lublina. Ukazywała ona modelki ubrane w stroje w opartowskie desenie sfotografowane w towarzystwie Henryka Berlewiego. Projekcja korespondowała z pokazem mody, będąc jednocześnie nawiązaniem i jego zaprzeczeniem. * Artyści mindware’u w swoich działaniach pokazali, w jaki sposób technologia jest przekładalna na życie społeczne i funkcjonowanie przestrzeni publicznej. Kładli nacisk na to, że istnieje rzeczywistość nadbudowana nad tym, co realne i dostrzegane przez nas na pierwszy rzut oka. Rzeczywistość ta nie zawsze jest uchwytna – posługiwanie się technologią i obrazem wirtualnym nie tworzy jej, a jedynie pomaga wyjść na światło dzienne, akcentuje poszczególne jej aspekty, takie jak: kryzys wartości w zglobalizowanym świecie, przemycanie informacji w eterze, powtarzalność i kompulsywność gestów i zachowań, komunikowanie się bez względu na szerokość geograficzną, prawda i iluzja kontroli współczesnego panoptykonu i wiele innych. Artyści nowych mediów nie tworzą nowego arsenału pojęć i problemów – odświeżają te, które przez długi czas leżały odłogiem bądź zrodziły się na skutek przepaści pomiędzy rozwojem technologicznym a kryzysem cywilizacyjnym. Media elektroniczne stanowią szczelinę prowokującą oko do spojrzenia w odmęty wykreowanej rzeczywistości. Sztuka w relacji do wiedzy naukowo-technicznej obnaża przesunięcie pomiędzy namacalną rzeczywistością społeczną, polityczną i kulturową a zaawansowaną technologią, która bywa obca i nieuchwytna. Sztuka próbuje korzystać z jej potencjału na różne sposoby. Jeśli jednak artyści podejmują wątek technologiczny, często czynią to w perspektywie melancholijno-krytycznej, zachęcającej
269
do namysłu, prowokującej do refleksji nad sensem i mechanizmem wykorzystywania mediów elektronicznych. Świat smartfonów, Internetu, iPodów, informacji przepływającej z prędkością światła i życia otwartego na oścież na portalach społecznościowych jest tym samym światem, w którym ludzie borykają się z biedą, głodem, zniewoleniem, wyzyskiem, brakiem porozumienia w najprostszych, międzyludzkich sytuacjach. Mindware. Technologie dialogu to jedno z tych przedsięwzięć, które pokazało, że dwie wspomniane płaszczyzny – realna i wirtualna – nie rozszczepiają świata. Każda z nich bywa demonizowana – podczas gdy w każdej z nich prawda współistnieje z fikcją, a dialog wiąże się z zakłóceniami w komunikacji. Artyści mindware’u połączyli zagadnienia związane z oprogramowaniem, z rzeczywistością społeczną, proponując elastyczne rozwiązania, będące kluczami – zapewne jednymi z wielu – do zrozumienia tego, co otacza każdego człowieka.
270
Mindware. Technologie dialogu â&#x20AC;&#x201C; Lublin, paĹşdziernik 2011 Dokumentacja
273
Projekt Mindware. Technologie dialogu został zrealizowany w Lublinie we wrześniu i październiku 2011 r. przez Warsztaty Kultury, w ramach Krajowego Programu Kulturalnego Polskiej Prezydencji w Radzie Unii Europejskiej 2011. Składał się z serii wydarzeń artystycznych i teoretycznych odbywających się w przestrzeni miasta, instytucjach kultury i obiektach użyteczności publicznej. Artystów zaproszonych do udziału wyłoniono w wyniku otwartego, internetowego naboru. Wśród nich znaleźli się: Martin Bricelj Baraga, Arthur Clay, Grupa Dotka (Barbara Dzierań, Urszula Kowal, Justyna Zubrycka), Paweł Janicki, Yuriy Kruchak, Andriy Linik, Vasili Macharadze, Tomasz Malec, Darija Medić, Boris Oicherman, Marcin Skrzypek i Dominika Sobolewska. Czternastu uczestników z Gruzji, Izraela, Polski, Serbii, Słowenii, Szwajcarii i Ukrainy zrealizowało autorskie koncepcje w ramach wirtualnych rezydencji – dialogu pomiędzy artystami, kuratorami, organizatorami i mieszkańcami miasta, a także w efekcie pobytów rezydencyjnych w Lublinie (26–30 września 2011). Zgłoszone idee, wielokrotnie dyskutowane, rozwijane czy wręcz modyfikowane zostały osadzone w lokalnym kontekście, ale także zorientowane wobec problemów globalnych. Działania artystyczne zaprezentowano w bardzo różnych, często zupełnie nieoczywistych, przestrzeniach miasta, takich jak kościół ewangelicko-augsburski, galeria handlowa, budynek poczty, przystanki miejskiej komunikacji, ratusz oraz na falach eteru – za pośrednictwem lokalnego radia (1–23 października 2011). Równolegle do części artystycznej odbyła się debata teoretyczna, złożona z konwersatoriów i wykładów przygotowanych przez teoretyków mediów, medioznawców, krytyków sztuki, wśród których znaleźli się: Roman Bromboszcz, Michał Brzeziński, Piotr Celiński, Anna Maj, Michał Derda-Nowakowski, Anna Nacher, Maciej Ożóg, Ianina Prudenko (2–7 października 2011). Całość programu dopełnił Mindware Club, który objął wydarzenia z pogranicza sztuki nowych mediów, eksperymentu dźwiękowego, mappingu i designu. Pokazy, wykłady i koncerty umieszczone w tej części przygotowali: Roman Bromboszcz, Michał Brzeziński, Catself & Orkiestra św. Mikołaja, Harpakahylo (Konrad Chyl), Aleksander Janas, Dariusz Kociński, Maciej Ożóg (4–7 października 2011). Projekt podsumowano na specjalnie przygotowanej ekspozycji w Warsztatach Kultury złożonej z powstałych dzieł oraz dokumentacji działań artystycznych, wykładów i dyskusji (15 grudnia 2011–25 marca 2012). Poza tym wydarzenie zostało zrelacjonowane w postaci dwóch reportaży: Mindware autorstwa Niny Komorowskiej (TVP Lublin, 2011) oraz Kultura w akcji / Lublin przygotowanego przez Maksa Cegielskiego i Annę Zakrzewską (Narodowy Instytut Audiowizualny, 2011). Koncepcję projektu Mindware. Technologie dialogu opracowali wspólnie Piotr Celiński, Marcin Skrzypek i Zbigniew Sobczuk. Wyboru dzieł i działań zaprezentowanych w części artystycznej dokonał Zbigniew Sobczuk. Część teoretyczną projektu przygotował Piotr Celiński. Natomiast zorganizowania Mindware Clubu podjął się Robert Zając, we współpracy z Marcinem Skrzypkiem. Konsultacji w różnych obszarach przygotowania i realizacji projektu udzielili m.in. Michał Brzeziński, Paweł Janicki, Jan Kamiński, Rafał Koziński, Marcin Zmysłowski. Projekt został zorganizowany i wyprodukowany przez Magdalenę Kawę i Zbigniewa Sobczuka, wspieranych przez asystentów i licznych wolontariuszy. Zbigniew Sobczuk
275
Grupa Dotka (Barbara Dzierań, Urszula Kowal, Justyna Zubrycka), Masowy BioOrnament, bioobiekt, Lublin–Warszawa 2011–2012
Premierowy pokaz: Lublin, Centrum Handlowe „Galeria Olimp”, 1–10 października 2011, fot. W. Pacewicz
Edycja II, Warszawa, Narodowy Instytut Adiowizualny, 27–29 października 2011, fot. K. Piądłowska
276
Edycja III, Lublin, Warsztaty Kultury, 15 grudnia 2011–25 marca 2012, fot. W. Pacewicz
Edycja III, Lublin, Warsztaty Kultury, 15 grudnia 2011–25 marca 2012, fot. W. Pacewicz
277
Andriy Linik, Aiolos, instalacja interaktywna/software, premiera projektu, Kościół ewangelicko-augsburski pw. Św. Trójcy w Lublinie, 3–7 października 2011, fot. W. Pacewicz
278
279
Andriy Linik, Aiolos, instalacja interaktywna/software, II edycja projektu, Lublin, Warsztaty Kultury, 15 grudnia 2011â&#x20AC;&#x201C;25 marca 2012, fot. W. Pacewicz
280
281
Martin Bricelj Baraga, Public Avatar, działanie interaktywne, performance/ software, Lublin, przestrzeń publiczna od Starego Miasta do Miasteczka Akademickiego, 1–2 października 2011, fot. W. Pacewicz
W akcji, Krakowskie Przedmieście, od lewej: Marek Żmuda (I awatar) i Martin Bricelj Baraga (artysta)
Centrala – punkt dowodzenia, Warsztaty Kultury, od lewej: Roman Wojciechowski (tłumacz) i Slavko Glamočanin (wsparcie techniczne)
282
W akcji, Miasteczko Akademickie, Daniel Chlibiuk (II awatar)
W akcji, Stare Miasto, Marek Ĺťmuda (I awatar)
283
Yuriy Kruchak, Net of the Dream, działanie społeczne/warsztaty, Lublin: Dzielnicowy Dom Kultury „Bronowice”; Dom Kultury „Skarpa”; MBP im. H. Łopacińskiego – Filia nr 30; Fundacja Nieprzetarty Szlak; Polskie Stowarzyszenie Pedagogów i Animatorów KLANZA, 3–6 października 2011, fot. W. Pacewicz
Warsztaty w siedzibie PSPiA KLANZA, tworzenie transparentu – jednego z pięciu, symbolicznych, społecznych interfejsów
Warsztaty w siedzibie DK „Skarpa”
284
Finał działania społecznego na Placu Litewskim, łączenie transparentów
Finał działania społecznego na Placu Litewskim, „wymarsz” połączonego transparentu
285
Paweł Janicki, irREAL<->irBORG, działanie edukacyjne/warsztaty, Lublin: OMIT „Rozdroża”, Plac Litewski oraz Warsztaty Kultury, 3–7 października 2011, fot. W. Pacewicz
Zajęcia warsztatowe w OMIT „Rozdroża”
Wykład i prezentacja efektów pracy w Warsztatach Kultury
286
287
Darija Medić, On the air browser radio show, działanie społeczne/software, do realizacji projektu została wykorzystana przestrzeń publiczna miasta oraz przestrzeń radiowa (przekaz dźwiękowy przez nadajniki FM na małą odległość, a także przez lokalne Radio Lublin), Lublin, 4–6 października 2011, fot. W. Pacewicz
Nadawanie audio-translacji przekazu internetowego przez nadajniki na małą odległość z księgarnio-kawiarni „Między Słowami”
288
Nadawanie audio-translacji przekazu internetowego przez nadajniki na małą odległość na bazarze przy ulicy Ruskiej
289
Darija Medić, On the air browser radio show, specjalna aranżacja elementów projektu zrealizowanego w październiku 2011, prezentacja dokumentacji i klipów radiowych, Lublin, Warsztaty Kultury, 15 grudnia 2011–25 marca 2012, fot. W. Pacewicz
290
291
Dominika Sobolewska, Widzące miejsce, instalacja/działanie społeczne, premiera projektu – sieć powiązanych ze sobą miejsc w mieście, z punktem centralnym usytuowanym przy ulicy Olejnej 2 (budynek byłego Cefarmu, teren przyszłego kompleksu Alchemia) oraz pozostałymi sześcioma miejscami, w których umieszczono „oczy” przekazujące obraz do „widzącego miejsca” (w tym z Biblioteki UMCS, dworca autobusowego PKS, budynku Poczty Polskiej, pubu „U szewca”, Ratusza Miejskiego oraz Warsztatów Kultury), Lublin, 1–23 października 2011, fot. W. Pacewicz
„Opuszczone” miejsce przy ulicy Olejnej 2, monitory odbierające przekaz z sześciu „oczu” znajdujących się w miejscach „zaludnionych”
„Oko” transmitujące obraz z hali dworca autobusowego PKS do „widzącego miejsca” 292
„Oko” transmitujące obraz z holu Biblioteki Uniwersyteckiej UMCS
„Oko” transmitujące obraz z pubu „U szewca” 293
Dominika Sobolewska, Widzące miejsce, instalacja/działanie społeczne, II edycja projektu, w której punkt centralny został usytuowany poza centrum miasta – w DDK „Węglin”, pozostałe sześć miejsc to instytucje kultury usytuowane w centrum miasta (w tym: Galeria Labirynt, Lubelskie Towarzystwo Zachęty Sztuk Pięknych, Muzeum Lubelskie w Lublinie, Ośrodek „Brama Grodzka – Teatr NN”, Teatr Osterwy oraz Warsztaty Kultury), Lublin, 15 grudnia 2011–25 marca 2012, fot. W. Pacewicz
„Widzące miejsce” w DDK „Węglin”, odbierające przekaz z sześciu „oczu” znajdujących się w instytucjach kultury usytuowanych w centrum miasta
„Oko” transmitujące obraz z Ośrodka „Brama Grodzka – Teatr NN”
294
„Oko” transmitujące obraz z Muzeum Lubelskiego w Lublinie
„Oko” transmitujące obraz z Galerii Lipowa 13 Lubelskiego Towarzystwa Zachęty Sztuk Pięknych 295
Marcin Skrzypek, Gra w wartości, gra/działanie społeczne, Lublin: Warsztaty Kultury, Gimnazjum nr 19 oraz Dom Kultury „Skarpa”, spotkania realizowane pomiędzy 23 września a 6 października 2011
Gra zrealizowana z artystami i wolontariuszami w ramach spotkania rozpoczynającego rezydencje artystyczne projektu Mindware. Technologie dialogu w Warsztatach Kultury, fot. M. Skrzypek
296
Gra zrealizowana z uczniami w Gimnazjum nr 19 w Lublinie, fot. D. Panek
Gra zrealizowana z seniorami w DK „Skarpa” w Lublinie, fot. W. Pacewicz
297
Boris Oicherman, Projected City, instalacja/działanie w przestrzeni Lublina, wykorzystujące sieć ulic, architekturę, układ urbanistyczny i naturę, w tym: Stare Miasto, ulice – Lubartowską i Zamojską, Drogę Męczenników Majdanka, ulicę Kunickiego i inne, 3–7 października 2011, fot. W. Pacewicz
Specjalna konstrukcja umieszczona na samochodzie, wyposażona w kamerę, komputer i projektory, gdzie w sprzężeniu zwrotnym był pozyskiwany i jednocześnie wyświetlany obraz miasta, widok na tle Bramy Trynitarskiej
Widok na tle lubelskiego zamku
298
Kamienice na Starym Mieście „oświetlone” projekcją z jadącego samochodu
299
Vasili Macharadze i Tomasz Malec, Gadające miasto, komunikacyjny projekt społeczny/instalacja, artyści wykorzystali trzy linie komunikacji miejskiej w Lublinie: dwie autobusowe nr 13 i nr 31 oraz jedną trolejbusową nr 151, na 15 przystankach umieszczono elementy instalacji/przekaźniki, służące do pobierania i pozostawiania informacji, 4–7 października 2011, fot. W. Pacewicz
Element instalacji/przekaźnik umieszczony na przystanku „Plac Wolności 02”
Na przystanku „Kaprysowa 02”
300
Na przystanku „Ogród Saski 03”
Odczytanie poematu o mieście – będącego jednym z efektów projektu – przez Tomasza Malca na przystanku „Ogród Saski 03”, w głębi Vasili Macharadze i asystentka Zuzanna Grubecka
301
Arthur Clay, Club Block, pokaz mody/projekcja, Lublin: Warsztaty Kultury oraz Centrum Promocji Województwa Lubelskiego, 3–7 października 2011, fot. W. Pacewicz
Wolontariusze z Liceum Plastycznego w Nałęczowie w rolach modelek i modeli w trakcie pokazu mody w Warsztatach Kultury
302
Projekcja w witrynie Centrum Promocji Wojew贸dztwa Lubelskiego
303
Wystawa Mindware. Technologie dialogu – post scriptum, Lublin, Warsztaty Kultury, 15 grudnia 2011–25 marca 2012, fot. W. Pacewicz
Na pierwszym planie, po lewej dzieło Grupy Dotka Masowy BioOrnament, obok „oko”, element instalacji Dominiki Sobolewskiej Widzące Miejsce, w głębi, po lewej aranżacja z elementów projektu Dariji Medić On the air browser radio show, po prawej „kącik teoretyczny” – zapisy dokumentacyjne
Na pierwszym planie, po lewej zapisy dokumentacyjne dzieł mindware’owych, w głębi element instalacji Andrija Linika Aiolos
304
Na pierwszym planie, po środku dzieło Grupy Dotka Masowy BioOrnament, na ścianach w głębi elementy i dokumentacja dzieła Vasiliego Macharadze i Tomasza Malca Gadające miasto, w głębi, po środku instalacja Andrija Linika Aiolos
Na pierwszym planie, po lewej dzieło Grupy Dotka Masowy BioOrnament, obok „oko”, element instalacji Dominiki Sobolewskiej Widzące Miejsce, w głębi, po lewej aranżacja z elementów projektu Dariji Medić On the air browser radio show, po prawej „kącik teoretyczny” – zapisy dokumentacyjne 305
Część teoretyczna projektu Mindware. Technologie dialogu, Lublin: Warsztaty Kultury oraz Galeria Lipowa 13 Lubelskiego Towarzystwa Zachęty Sztuk Pięknych, 1–7 października 2011, fot. W. Pacewicz
Wykład Piotra Celińskiego Cyberwyobraźnia: triumf kultury nad technologią, inaugurujący projekt Mindware. Technologie dialogu
Konwersatorium Anny Nacher Sfera publiczna w dobie internetu, rzeczy i ludzi
306
Konwersatorium Romana Bromboszcza Nadzmysłowość
Wykład Anny Maj Media w podróży. Sztuka GPS i tagowanie przestrzeni
307
Mindware Club, program towarzyszący w ramach projektu Mindware. Technologie dialogu, Lublin, Ośrodek „Brama Grodzka – Teatr NN”, 4–7 października 2011, fot. W. Pacewicz
Roman Bromboszcz, projekt Poezja Cybernetyczna „Fazy”
Michał Brzeziński, wizualno-dźwiękowy projekt DATAHARSH
308
Harpakahylo (Konrad Chyl), Sytuacja dźwiękowa: nakłucie#
Maciej Ożóg, postelektro-akustyczny projekt NONSTATE
309
O autorach Roman Bromboszcz Badacz cyberkultury i artysta nowych mediów, kurator, filozof i poeta. Jako artysta eksploruje połacie hipertekstu i kodu cyfrowego, w swoich badaniach zajmuje się estetyką nowych technologii, sztuką mediów i ich oddziaływaniem na kulturę. Autor książek Estetyka zakłóceń, Poznań 2010 i Ewolucja i wartość. Szkice o kulturze, Kraków 2012. Michał Brzeziński Kurator, teoretyk i artysta wideo, którego inspiracją są szeroko rozumiane nowe media. Jego twórczość wideo o silnym podłożu konceptualnym i teoretycznym rozszerzyła się na kategorię metamediów artystycznych – systemów społecznych które stają się generatorami sztuki. Pierwszym dziełem metamedialnym była Galeria NT, która działała w 2010 roku w Łodzi. Piotr Celiński Teoretyk mediów i kultury, kurator i animator. Interesują go relacje pomiędzy człowiekiem, techniką i kulturą. Autor książki Interfejsy. Cyfrowe technologie w komunikowaniu, Wrocław 2010 oraz redaktor prac: Kulturowe kody technologii cyfrowych, Lublin 2011 i Kultura wiedzy, Kraków 2012. Geoff Cox Artysta, wykładowca, kurator i animator interesujący się nowymi mediami i sztuką współczesną. Obecnie związany z Instytutem Digital Aesthetics na Uniwersytecie Aarhus i Plymouth. Redaktor serii DATA Browser dla wydawnictwa Autonomedia, autor monografii Speaking Code. Coding as Aesthetic and Political Expression, MIT Press 2012. Michał Derda-Nowakowski Antropolog mediów, projektant i wydawca związany z Uniwersytetem Łódzkim. W swoich badaniach i projektach łączy zainteresowania antropologią mediów, architekturą informacji oraz designem. Prezes Instytutu Mediów w Katowicach, założyciel Wydawnictwa Naukowego ExMachina, koordynator Dni Nowych Mediów, projektu McLuhan in Europe w Polsce, współautor projektu Cybergarden w ramach programu ESK 2016 Katowice – Miasto Ogrodów. Paweł Frelik Kulturoznawca i lingwista, interesuje się science fiction, postmodernizmem, cyberpunkiem, experimental fiction, kulturą niepopularną oraz opowieściami crossmedialnymi. Redaktor i autor m.in.: (Mis)Reading America: American Dreams, Fictions and Illusions, Kraków 2011; Playing the Universe: Games and Gaming in Science Fiction, Lublin 2007. Prowadzi http://nomadologic.net. Paweł Janicki Niezależny artysta medialny i producent działający w dziedzinie sztuki mediów, estetyki microsound oraz kompozycji algorytmicznych. Tworzy instalacje i performansy. Zajmuje się muzyką generatywną oraz systemami interaktywnymi. Jest laureatem wielu międzynarodowych konkursów, m.in. zdobywcą głównej nagrody w konkursie organizowanym przez tokijski Machida City Museum of Graphic Art za internetowy performans muzyczny Ping Melody. Związany z WRO Centrum Sztuki Mediów, współzałożyciel grupy Gameboyzz Orchestra Project, uczy w Katedrze Intermediów ASP w Poznaniu. Peter Lunenfeld Profesor kalifornijskiego UCLA, gdzie kieruje wydziałem mediów i design. Autor i wydawca znaczących prac z zakresu teorii nowych mediów i cyberkultury, kurator sztuki nowych mediów i jej popularyzator. Opublikował m.in.: The Secret War Between Downloading and Uploading: Tales of the Computer as Culture Machine, MIT Press 2011; User: InfoTechnoDemo (Mediaworks Pamphlets), MIT Press 2005; The Digital Dialectic: New Essays on New Media, MIT Press 2000.
310
Anna Maj Antropolog mediów, zajmuje się badaniami nad komunikacją kulturową i cyberkulturą. Adiunkt w Instytucie Nauk o Kulturze Uniwersytetu Śląskiego w Katowicach. Autorka książki Media w podróży, Katowice 2008 oraz redaktor książek z zakresu społecznych i kulturowych aspektów nowych mediów. Wiceprezes Instytutu Mediów w Katowicach, koordynator Dni Nowych Mediów, współautor projektu Cybergarden w ramach programu ESK 2016 Katowice – Miasto Ogrodów. Anna Nacher Badaczka kultury współczesnej i jej medialnych powiązań, interesuje się teoriami mediów studiami genderowymi, antropologią wizualności. Adiunkt w Katedrze Mediów Audiowizualnych Instytutu Sztuk Audiowizualnych Uniwersytetu Jagiellońskiego. Aktywistka społeczna, zaangażowana w projekt muzyczny The Magic Carpathians. Autorka książki Telepłeć. Gender w telewizji doby globalizacji, Kraków 2008. Maciej Ożóg Muzyk, teoretyk i historyk sztuk medialnych, pracuje na Uniwersytecie Łódzkim. Publikuje na temat filmu awangardowego, sztuki wideo i nowych mediów. Zajmuje się historią i teorią sztuk medialnych, problematyką kultury audiowizualnej, cyberkultury i społeczeństwa informacyjnego. Założyciel licznych projektów muzycznych i multimedialnych. Obecnie prowadzi solowy projekt Nonstate. Marta Ryczkowska Krytyczka i kuratorka sztuki, graficzka. Związana z Galerią Labirynt i Lubelskim Towarzystwem Zachęty Sztuk Pięknych. Współpracuje z „Kresami” i „Kulturą Enter”. Marcin Skrzypek Muzyk folkowy, animator społeczny i teoretyk kultury i folku. Fotograf i plastyk, autor nikomu nieznanej relacyjnej teorii „dania semiotycznego”. Pracuje w Ośrodku „Brama Grodzka – Teatr NN”, gdzie redaguje pismo „Scriptores” i prowadzi Forum Kultury Przestrzeni. Autor projektu rewitalizacji doliny połemkowskiej wsi Jawornik. Zbigniew Sobczuk Kurator i koordynator działań artystycznych i edukacyjnych, producent i designer. Prezes Lubelskiego Towarzystwa Zachęty Sztuk Pięknych, wieloletni szef Galerii KONT, obecnie związany z Warsztatami Kultury w Lublinie. Johan Söderberg Szwedzki socjolog i medioznawca związany z Uniwersytetem Gothenburg. Interesuje się hackingiem, estetyką technologii i teoriami mediów. Autor Free software to open hardware: Critical theory on the frontiers of hacking, Gothenburg 2011 i Hacking Capitalism – The Free and Open Source Software Movement, Routledge 2007. Peter Weibel Artysta i kurator sztuki mediów, ich teoretyk. Wykładał w Austrii, Niemczech, Kanadzie. W 1984 roku objął stanowisko profesora mediów wizualnych na Uniwersytecie Angewandte Kunst w Wiedniu, w 1989 powierzono mu misję utworzenia Institute for New Media w Städelschule we Frankfurcie, a od 1999 roku kieruje Zentrum für Kunst und Medientechnologie w Karlsruhe. W przeszłości dyrektor Ars Electronica w Linzu. Kurator kilkudziesięciu wystaw, autor prac medialnych wykorzystujących obraz, dźwięk i ruch. Opublikował wiele prac naukowych i publicystycznych.
311
Layout info Projekt graficzny książki i towarzyszące mu pliki z elektroniczną wersją makiety (przygotowane w programie Adobe InDesign i zapisane w formacie *.indd) udostępniamy na otwartej licencji CC na stronie internetowej www.mindware.art.pl wraz z elektroniczną wersją publikacji. Każdy może nieodpłatnie wykorzystywać i przetwarzać nasz projekt do własnych działań wydawniczych. Makietę opracowaliśmy według następujących zamierzeń: – wybraliśmy format 145x235 mm z myślą o jak najtańszym i najbardziej ekologicznym wykorzystaniu standardowych arkuszy papieru; – zastosowaliśmy rodzinę bezszeryfowych czcionek Myriad Pro ze względu na możliwość ich uniwersalnego charakteru, który sprawdza się zarówno w przypadku papierowego druku, jak i na ekranach wyświetlaczy komputerów; – dokonaliśmy niesymetrycznego układ marginesów ułatwiający przejrzysty wydruk elektronicznej wersji książki na domowej drukarce.