Mapowanie tekstu i Przestrzenne Mapy Myśli.

Page 1

J o a n n a

M a g d a l e n a

Z a b a w a

Mapowanie tekstu i Przestrzenne Mapy Myśli jako metoda optymalizacji procesów kognitywnych związanych z czytaniem praca magisterska wykonana pod kierunkiem prof. Piotra Bożyka recenzent dr Agata Hołobut

Wydział Form Przemysłowych Akademia Sztuk Pięknych im. Jana Matejki w Krakowie Kraków 2012


Spis treści Wstęp

5

Część teoretyczna

11

11

1.1. Czytanie jako podstawa humanizmu

1.1.1. Pismo nośnikiem wiedzy

11

1.1.2. Funkcje i kontekst czytania oraz typy czytelników

15

1.2. Mechanizm czytania

25

1.2.1. Złożony proces poznawczy

25

1.2.2. Teorie i modele mechanizmu czytania

29

1.3. Embodiment

1.4. Hipoteza zmiany paradygmatu czytania z ciągłego na hipertekstualny w związku z postępem technologicznym (Internet) 51

43

1.4.1. Od książki drukowanej do PDF

51

1.4.2. Hipertekst

55

1.5. Efektywność uczenia się – 2D a 3D

63

1.5.1. Różnorodność systemów wspomagających uczenie się

65

1.5.2. Mnemotechniki

67

1.6. Możliwości rozwoju wynikające z postępu techniki

71

1.6.1. Rozwijane programy e-learningowe 3D w medycynie i matematyce 71

Opis projektu

75

2.1. Założenia projektowe

75

2.2. Ścieżki rozwoju projektu (szkice, pomysły pośrednie, prezentacja możliwych kierunków rozwoju) 77

2.3. Proces użytkowy

83

2.4.1. Metoda tagowania tekstu drukowanego lub cyfrowego za pomocą urządzenia skanującego 85

2.4.2. Przekształcanie opracowania tekstu w formę przestrzennych


map myśli – przenoszenie na struktury ekranów

2.4.3. Metody pracy z mapami, możliwości ingerencji użytkownika 89

2.5. Forma – uzasadnienie pragmatyczne

2.7. Spektrum możliwości wykorzystania urządzenia

89 93 103

2.7.1. Dla kogo?

103

2.7.2. Gdzie?

103

2.7.3. Do czego służy?

105

Dokumentacja

106

Bibliografia

108

Spis ilustracji

112

3



Wstęp Kształcenie ustawiczne jest jednym z priorytetów polityki oświatowej w krajach Unii Europejskiej. Jak dowiadujemy się z artykułu Roksany Neczaj-Świderskiej1, Komisja Europejska już ponad dziesięć lat temu opracowała dokumenty oświatowe, których założenia skupiają się wokół zagwarantowania Europejczykom możliwości uczenia się przez całe życie. Stworzenie programów dotyczących kształcenia permanentnego ma wspierać proces przejścia Unii Europejskiej do gospodarki i społeczeństw opartych na wiedzy, które muszą sprostać nieustannym przemianom społeczno-ekonomicznym. W Rezolucji Rady Unii Europejskiej z 27 czerwca 2002 r. uczenie się przez całe życie (lifelong learning) zostało ujęte jako „pojęcie, które powinno dotyczyć uczenia się od fazy przedszkolnej do późnej emerytalnej, włączając w to całe spektrum uczenia się formalnego (w szkołach i innych placówkach systemu edukacji), pozaformalnego (w instytucjach poza systemem edukacji) i nieformalnego (naturalnego). Ponadto powinno się ono odnosić do wszelkiej, trwającej przez całe życie, aktywności uczenia się, mającej na celu rozwój wiedzy, kompetencji i umiejętności w perspektywie osobistej, obywatelskiej, społecznej oraz zorientowanej na zatrudnienie. Zasadniczym odniesieniem w tym względzie powinna być osoba jako podmiot uczenia się, co podkreślać ma znaczenie prawdziwej równości szans i jakości w procesie uczenia się”. Dyrektywa ta w sposób zasadniczy zwraca uwagę na dynamiczne zmiany zachodzące w społeczeństwach zachodnich, gdzie model zdobywania wykształcenia w młodym wieku, a następnie wykorzystywania tej wiedzy w życiu zawodowym przez resztę życia, jest już zupełnie nieaktualny. Tym samym efektywne zdobywanie wiedzy staje się istotniejszą niż kiedykolwiek częścią życia każdego człowieka. Celem tej pracy jest analiza i próba rozwiązania problemu konieczności przyswajania coraz większych ilości wiedzy w coraz krótszym czasie, związanego bezpośrednio z koniecznością uczenia się przez całe życie. Do podjęcia tego tematu skłoniło mnie osobiste zetknięcie z problem opanowywania dużej ilości materiału edukacyjnego w krótkim czasie, które dotyczy większości studentów uniwersytetów kształcących się na kilku kierunkach jednocześnie. W związku z wąskim wyspecjalizowaniem kierunków studiów 1 Neczaj-Świderska R., Uczenie się jako jedno z życiowych wyzwań współczesnego człowieka, „E-mentor, dwumiesięcznik Szkoły Głównej Handlowej w Warszawie” nr 5 (7)/2004

5



wyższych jest to już praktyka ogólnie przyjęta, a wręcz wymagana przez część pracodawców. Ponadto zetknięcie z rosnącym gronem pacjentów zgłaszających się do poradni psychologicznych w związku z trudnościami z umiejętnością czytania i pisania, w celu diagnozy odchyleń dyslektycznych i pokrewnych, zwróciła moją uwagę na wpływ przemian technologicznych, sensowność podtrzymywania tradycyjnych programów nauczania i konieczność poszukiwania nowych metod samodzielnego uczenia się. Hipotetycznie, konsekwencją przejścia od ery książki papierowej do binarnego przekazu informacji jest zmiana paradygmatu czytania z ciągłego na hipertekstualny, co przy podtrzymywaniu przez szkoły tradycyjnych metod nauczania skutkuje między innymi wzrostem liczby uczniów mających kłopoty ze zrozumieniem czytanego tekstu. Paradygmat jakim posługują się na co dzień diametralnie różni się bowiem od tego, jaki wymagany jest przy korzystaniu z materiałów szkolnych. Hipoteza ta znajdzie swoje rozwinięcie w rozdziale czwartym części teoretycznej pracy, gdzie omawiać będę wpływ pojawienia się Internetu na formę prezentacji tekstu. W części projektowej, w celu objaśnienia proponowanego przez mnie rozwiązania problemu, posługiwać się będę terminami „mapowanie tekstu” oraz „przestrzenne mapy myśli”. Pod pojęciem mapowania tekstu rozumiem proces jaki wykonać musi czytelnik w celu analizy tekstu i kategoryzacji informacji w nim zawartych. Proces ten zawiera w sobie kolejno: odkodowanie i zrozumienie słów, ekstrakcję sensu i znaczenia na poziomie zdań i akapitów, umysłowy projekt etykietek kategorii, wyznaczenie słów-kluczy i grupowanie poszczególnych informacji w określone przez siebie kategorie. Opisana przez mnie metoda mapowania tekstu jest de facto eksplikacją naturalnego, choć nieuświadomionego procesu analizy tekstu, jaki dokonuje się podczas czytania nakierowanego na efektywną naukę. Pod skrótem PMM, rozumieć będę Przestrzenne Mapy Myśli, czyli innowacyjną metodę uczenia się i prezentacji wiedzy, proponowaną przez mnie jako rozwiązanie problemu optymalizacji procesów kognitywnych związanych z uczeniem się (oraz czytaniem, jako w moim przekonaniu, niepomijalną metodą zdobywania wiedzy). PMM mają być w założeniu pomostem pomiędzy tradycyjną formą tekstu ciągłego, a nowym paradygmatem konstruowania zbiorów informacji, jaki wykorzystywany jest w systemach komputerowych (Internet, Cloud Computing), wspomagających uczenie się poprzez odniesienie treści semantycznych do przestrzeni własnego ciała (embodied cognition) oraz otwierających nieznane dotąd możliwości ekspresji

7



słowa pisanego w połączeniu z multimediami i konsekwencjami zawieszenia w przestrzeni realnej i wirtualnej. Zakres omawianych w tej pracy zagadnień obejmować będzie w pierwszym rozdziale części teoretycznej analizę znaczenia pisma dla rozwoju wiedzy oraz sytuacji czytelniczej. W rozdziale drugim znajdzie się omówienie mechanizmów czytania i procesów poznawczych z tym związanych. Założenia teorii embodimentu i jej konsekwencje dla różnych gałęzi wiedzy opisane zostaną w rozdziale trzecim. Rozdział czwarty, piąty i szósty dotyczyć będą postawionej przeze mnie hipotezy zmiany paradygmatu czytania, powiązanych z tym badań nad efektywnością uczenia się w środowisku dwu- i trójwymiarowym, oraz istniejących możliwości doskonalenia metod nauczania wynikających z rozwoju technologii. W części praktycznej przedstawione zostaną założenia projektowe dla systemu PMM, ścieżki prowadzące do rozwiązania podjętego problemu, projektowany proces użytkowy koncepcji produktu oraz omówienie zakresu możliwości wykorzystania urządzenia. Ostatnią część pracy stanowić będzie dokumentacja konceptu i wykaz źródeł będących podstawą części teoretycznej.

9



Część teoretyczna 1.1. Czytanie jako podstawa humanizmu Wszyscy dążymy do nieśmiertelności. Czy, jak sugeruje Dawkins2, poprzez zapewnienie ciągłości genetycznej, czy za pomocą sztuki, czy poprzez dokonania na polu nauki. Chcemy unieśmiertelnić wspomnienie naszego imienia, utrwalić ślad naszego istnienia. Egipcjanie wierzyli, że człowiek posiada osiem dusz, w tym Ren czyli imię, które żyje tak długo, dopóki jest wymawiane, dlatego ceremonialnie zapisywano imiona w kartuszach3. Czytając nie tylko zdobywamy informacje, ale też powołujemy na nowo do życia autorów odczytywanych przez nas słów, ożywiamy myśli pomyślane w innych czasach i rzeczywistościach. Nie tylko nadajemy ciągłość kulturze, ale wręcz kreujemy to co Popper określił jako trzeci świat (World 3)4. Egzystencja tego świata, osiągnięć myśli ludzkiej, jest wręcz nie do pomyślenia bez umiejętności czytania, która współcześnie pozostaje niezbędna do prawidłowego funkcjonowania w społeczeństwie na równi ze zdolnością posługiwania się językiem, czyli podstawową formą komunikacji z drugim człowiekiem. 1.1.1. Pismo nośnikiem wiedzy Między innymi dzięki zdolności przekazywania wiedzy, człowiek jako gatunek zapanował nad światem. Nowonarodzone osobniki nie muszą w każdym pokoleniu zdobywać doświadczenia drogą prób i błędów, ale przekazywana jest im wiedza pokoleń, przez wieki pracujących i gromadzących wiadomości, których samodzielne sprawdzenie przekracza możliwości życia jednego człowieka. Podstawowym medium komunikacji jest język mówiony. W nielicznych społecznościach aborygeńskich do dziś stanowi jedyny przekaźnik kultury i tradycji5. Jednak słowo mówione, powtarzane przez kolejne usta i przetwarzane przez kolejne pokolenia jest zawodne. Zdali sobie z tego sprawę już starożytni Grecy (a jeszcze wcześniej Babilończycy czy 2 Dawkins R., The Selfish Gene (30th Anniversary edition), Oxford University Press, Oxford 2006 3 Hornung E., Jeden czy wielu: koncepcja boga w starożytnym Egipcie, KiW, Warszawa 1991 4 Popper K.R., Mit schematu pojęciowego. W obronie nauki i racjonalności, KiW, Warszawa 1997, Przekł. Bohdan Chwedeńczuk. 5 Dworczyk W., Ludzie australijskiego buszu, wyd. Czytelnik, Warszawa 1989

11



Hindusi) spisując eposy bohaterskie przekazywane przez rapsodów. Tylko język pisany miał być gwarantem zachowania oryginalnej myśli autora, nieśmiertelności tradycji w tekście. Oczywiście, jak pokazuje przykład średniowiecznych skrybów, nic nie jest w stanie całkowicie zabezpieczyć tekstu przed upływem czasu, niemniej od momentu wynalezienia systemu zapisu języka, umiejętność czytania stała się podstawową metodą zdobywania wiedzy. Anna Bieńkowska-Lesiak w swoim artykule6 podkreśla znaczenie umiejętności

czytania jako podstawowego środka komunikacji społecznej umożliwiającego porozumiewanie się ludzi w życiu codziennym oraz przekazywania doświadczeń społecznych między pokoleniami. Dodaje ponadto, że umiejętność ta jest niezbędnym środkiem rozpowszechniania cywilizacji ludzkiej, nauki i oświaty na poziomie społecznym oraz bardzo istotnym czynnikiem stymulacji rozwoju psychicznego jednostki: dynamizuje rozwój umysłowy, rozszerza możliwości zdobywania wiedzy. Jeszcze inną wartość dostrzega Jeanette Winterson pisząc, że „Sztuka czytania jest również umiejętnością nawiązania bliskiego kontaktu za pomocą tekstu z innym człowiekiem, tak jakby to była druga osoba. To jedyna w swoim rodzaju forma komunikowania się z ludźmi. Fascynująca możliwość napotkania osoby, poprzez czytelniczą relację, która nie będzie podobna do relacji z nikim innym”.7 Ze względu na ważkość problemu, naukę czytania przenosi się do coraz młodszych klas, czy wręcz grup przedszkolnych, a granicę wieku dziecka w jakim można rozpocząć naukę czytania wyznacza wyłącznie indywidualna zdolność zadowalającego opanowania przez dziecko mowy werbalnej oraz osiągnięcia odpowiedniego poziomu rozwoju psychofizycznego i intelektualnego. W praktyce oznacza to, że już trzy i czterolatki są w stanie rozwijać tę umiejętność, co w istotny sposób może zaważyć na ich późniejszym rozwoju i osiągnięciach szkolno-zawodowych. Jak podaje autorka artykułu8, „Samodzielne czytanie tekstów usamodzielnia dziecko, dyscyplinuje jego życie społeczne, daje satysfakcję z pokonywanych trudności – odbioru i pojmowania znaków graficznych. Wymiana samodzielnie przeczytanym tekstem między dziećmi, podnosi ich pozycję w zespole, powoduje wymianę myśli, ciekawych treści, zachęca do czytania wybranej książki, opowiadania. W związku z powyższym czytanie wszechstronnie rozwija osobowość dziecka, ogólną kulturę, kształtuje szacunek do książki”. Kinga Dunin dodaje: „Nawet potoczna obserwacja 6 Bieńkowska-Lesiak A., Psychofizjologiczne i rozwojowe uwarunkowania czynności czytania, „Kultura i historia” nr 4/2003, Instytut Kulturoznawstwa UMCS, Lublin 2003 7 Winterson J., O sztuce. Eseje o ekstazie i zuchwalstwie, Rebis, Poznań 2001 8 Mystkowkska H.,„Uczymy czytać w przedszkolu”, Warszawa 1977, s. 11

13



mówi, że ludzie oczytani lepiej funkcjonują w zbiorowości, są zwykle bardziej otwarci, łatwiej akceptują nowości, posługują się bogatszym językiem (…). Społeczeństwa nieczytające, o słabo rozwiniętym ruchu wydawniczym i braku bibliotek to te, które nie liczą się na międzynarodowej arenie.” 9. 1.1.2. Funkcje i kontekst czytania oraz typy czytelników Według badań Pracowni Badań Czytelnictwa Biblioteki Narodowej (przy współpracy z TNS OBOP) przeprowadzonych w listopadzie 2011 roku, zaledwie 44% badanych w tym roku miało przynajmniej jednokrotny kontakt z jakąkolwiek książką, w tym albumem, poradnikiem, encyklopedią, słownikiem lub książką elektroniczną. Ponadto 46% badanych w ciągu ostatniego miesiąca nie przeczytało nic dłuższego niż trzy strony maszynopisu albo trzy ekrany komputera. Dane te są na tyle wstrząsające, że nie można przejść obok nich obojętnie. Zastanawiające jest, w jaki sposób ponad połowa Polaków w wieku ponad 15 lat funkcjonuje w społeczeństwie informacyjnym nie czytając złożonych tekstów. Oznaczałoby to, że są uczniowie, którzy nie tylko nie czytają lektur, ale nawet ich streszczeń. Statystycznie połowa pracowników nie poczuwa się do konieczności pogłębiania wiedzy fachowej poprzez publikacje branżowe a jedna czwarta prawników czy lekarzy nie śledzi bieżącego rozwoju nauk w swojej dziedzinie10. A może dane te unaoczniają nam, jak bardzo sfera zdobywania informacji przeniosła się w obszary multimediów. Lektury odsłuchuje się na audiobookach, portale branżowe rozsyłają newslettery w postaci maili zawierających skrótowe opisy zagadnień opatrzone dużą ilością grafiki i ilustracji, a dostęp do transmisji i zapisów prezentacji czy wykładów (jak na przykład TED) pozwala orientować się w najnowszych osiągnięciach nauki, bez konieczności poświęcania energii i czasu na czytanie. Wobec tak ogromnego napływu informacji z jakim mamy do czynienia na co dzień, nie dziwi popularność tych łatwiejszych i szybszych dróg przekazu, ale jest pewien haczyk, którego ludzie zadowalający się tego rodzaju mediami nie zauważają bądź nie chcą widzieć. Pozostawanie na poziomie „dziennikarstwa” naukowego nie da nam nigdy właściwie ugruntowanej wiedzy. Newslettery i prezentacje pozwalają jedynie zorientować się w zagadnieniach, do których ich autorzy nas odsyłają, przefiltrować z grubsza czy dana gałąź wiedzy jest dla nas interesująca, przydatna. Odsłuchiwanie literatury 9 Dunin J., Pismo zmienia świat, PWN, Warszawa 1998 10 Wg danych z raportu, 25% Polaków z wyższym wykształceniem nie miało w ciągu roku kontaktu z żadną książką.

15



pięknej ma również zalety, ale nie może stanowić dla osoby pełnosprawnej jedynego źródła dostępu do niej, bo obdziera tekst z możliwości indywidualnej interpretacji (która poprzez prozodię lektora jest nam sugerowana czy wręcz narzucana). Rezygnując z czytania, nieświadomie odrzucamy cały wachlarz funkcji tej istotnej aktywności życiowej. W literaturze można spotkać różne podziały, wydaje mi się jednak, że można mówić o pięciu podstawowych funkcjach czytania: estetycznej, edukacyjnej, terapeutycznej, substytutywnej oraz społecznej. Najczęściej funkcja estetyczna kojarzona jest z literaturą piękną czy poezją, ale nie tylko jej dotyczy. Smakowanie słów, przyjemność oddawania się atmosferze, wsiąkania w akcję, obcowania z pięknem i dobrem samo w sobie jest wystarczającą wartością do podjęcia wysiłku czytelniczego. Książka wakacyjna, do poduszki czy pociągu, a nawet kolorowe magazyny czytane są najczęściej w kontekście relaksu, rozrywki i estetyki właśnie. Kolejną funkcją jest edukacja. Czytanie to zdobywanie nie tylko informacji, ale też wiedzy. Kształtuje zdolności i poprawność językową. Odpowiednia lektura w określony sposób formuje charakter a młodzieży daje możliwość poszukiwania wzorców osobowych. Umiejętności i zasoby doświadczeń, wiedzy gromadzone tą drogą dają szanse na awans społeczny i lepszą komunikację interpersonalną. Kontekst edukacyjny to nie tylko teksty z narzuconego nam przez jakąś instytucję kanonu, ale również takie, które wiążą się z osobistą potrzebą poznawczą czytelnika, jak gazety, portale opiniotwórcze, wiadomości czy książki popularnonaukowe. Również lektury wynikające z chęci aktywnego udziału w kulturze jak nowości wydawnicze,

bestsellery, książki nagradzane, recenzje, omówienia a także wywiady z twórcami. W końcu literatura fachowa, pisma branżowe i portale tematyczne związane bezpośrednio z koniecznością doskonalenia zawodowego. Ciekawym aspektem funkcji terapeutycznej czytania jest tzw. biblioterapia11 z jej szczególną odmianą bajkoterapii. Jest to dział terapii zajęciowej wykorzystującej wyselekcjonowane materiały tekstowe jako pomoc w psychiatrii i medycynie. Zakłada, że czytanie w warstwie fizjologicznej i treściowej wspomaga regulację systemu nerwowego i psychiki człowieka, jest skuteczne w rozwiązywaniu problemów osobistych, emocjonalnych, lękowych i uważane jest również za dobrą metodę relaksacyjną. Odpowiednio dobrane historie mogą pomóc dziecku przezwyciężyć trudności w nawiązywaniu kontaktów, lęki szkolne a także wyciszyć przed snem po dniu

11 Termin stworzony przez Samuela Mc Crothesa w 1916 roku. Wszystkie dane zaczerpnięte z Borecka I., Biblioterapia. Skrypt dla studentów pedagogiki, Wałbrzych 2001

17



pełnym wrażeń. Beneficjentami są również osoby dorosłe. Popularyzowane akcje w duchu biblioterapii, jak „Cała Polska czyta dzieciom” wspomagają rozwijanie więzi w rodzinie na płaszczyźnie dorosły-dziecko jak również pomiędzy dorosłymi członkami rodziny. Inną formą terapii jest pisanie i czytanie pamiętników, dające możliwość wglądu w nasze motywy działania, odtworzenia zmian jakie zaszły w życiu czytającego, monitorowania własnego rozwoju. Wreszcie terapeutyczna funkcja czytania przejawia się w możliwości spełniania tzw. potrzeb wyższych sprecyzowanych w piramidzie Maslowa jako potrzeba afiliacji, szacunku i samorealizacji. Następuje tu silne połączenie z funkcjami edukacyjnymi. Mówiąc o funkcji substytutywnej, mam na myśli możliwość wcielania się i przeżywania przez czytelnika sytuacji, których w swoim życiu nie ma możliwości doświadczyć. Tego typu fantazje, myślowa obróbka sekwencji zachowań jest nieomal równoznaczna z fizycznym ich przeżywaniem, czego dowodzą już od lat badania nad neuronami lustrzanymi i wyobrażeniowym funkcjonowaniem kory przedruchowej12. Osoby, które czytają literaturę piękną, charakteryzują się zmniejszonym poziomem frustracji egzystencjalnej i zdolnością do trafniejszych osądów sytuacji życiowych, co potocznie określa się jako „mądrość życiową”. Zdolności te być może wynikają ze wzbogacenia zasobów pamięci epizodycznej, rozwijania umiejętności dostrzegania zależności przyczynowo-skutkowych, trafnej ewaluacji poszczególnych zdarzeń których skutki mogą być istotne dla zdarzeń następnych. Szczególnym przypadkiem literatury o funkcji substytutywnej jest książka empatyczna13, kategoria tekstów nakierowana na wywołanie w czytelniku silnych emocji, w szczególności wzruszenia, łez, erotycznego uniesienia, skierowana zazwyczaj do kobiet nie mogących zaspokoić swoich potrzeb emocjonalnych w inny sposób. Piątą z wyznaczonych funkcji czytania jest funkcja społeczna. Grono osób czytających te same książki posiada wspólny kontekst, zespół odniesień w rozmowach, co spaja ich jako grupę i wyklucza jednostki niezaznajomione z żargonem sytuacyjnym. Mechanizm ten przejawia się również w postaci „snobizmu literackiego”, lansowania się w grupie rówieśniczej poprzez afiszowanie się z odpowiednimi tytułami, sztucznego podnoszenia swojej pozycji społecznej poprzez identyfikację z określoną literaturą, aspirowania do zamkniętych kast, na przykład artystycznych. 12 Jaśkowski P., Neuronauka poznawcza. Jak mózg tworzy umysł, wyd. Vizja Press&IT, Warszawa 2009 13 Kategoria znana już od epoki oświecenia w postaci powieści sentymentalnej, rozpropagowana w okresie romantyzmu, do dzisiejszych czasów dotrwała np. w zdegenerowanej formie tzw. literatury kobiecej czy harlequinów. Czasami mówi się o niej jako „babskiej pornografii”, ponieważ historie te spełniają dla kobiet funkcje analogiczne jak filmy pornograficzne dla mężczyzn.

19



Pracownia Badań Czytelnictwa Biblioteki Narodowej określa publiczność czytelniczą jako wszystkich, którzy w jakiś sposób komunikują się za pomocą tekstów, a przy tym są kompetentni do uczestnictwa i uczestniczą w instytucjach książki, czyli księgarniach, bibliotekach i imprezach czytelniczych. Jednocześnie pełnią funkcję opiniotwórczą oraz czytają 6 lub więcej książek rocznie. Szczególną podgrupą publiczności czytelniczej jest publiczność literacka, charakteryzująca się czytaniem głównie literatury pięknej. Jednak czy definicja ta jest adekwatna? Czy z grona publiczności czytelniczej mamy prawo wykluczyć osoby pozyskujące teksty za pomocą Internetu z pominięciem oficjalnych księgarni czy bibliotek (na przykład przez Allegro czy teksty publikowane na licencji otwartej), a funkcję opiniotwórczą spełniają w ramach komentarzy i kliknięć „lubię to” albo oceniając za pomocą gwiazdek? Internet diametralnie zmienił sytuację czytelnika, wyzwalając go z konieczności przeszukiwania zakurzonych katalogów bibliotecznych z jednej strony, ale z drugiej również przyzwyczajając do czytania notek o ograniczonej długości, rzadko weryfikowanych merytorycznie przez specjalistów. Pojawiły się nowe formy literackie w postaci blogów i nowe nawyki „googlowania” opinii o książkach, żeby się upewnić, że warto poświęcić im czas. Uważam, że publiczność czytelnicza to nie tylko tradycjonaliści skupieni wokół „instytucji książki” ale również osoby poszukujące nowych form, mediów przekazu tekstu, bo nieuchronnie to oni będą tworzyć społeczność czytelników przyszłości. Czym więc charakteryzuje się typ Nowego Czytelnika? Piszczek14 określa go mianem Metaczytelnika. Korzysta on z wielu nośników i form przekazu. Jego metoda czytania bardziej przypomina nawigowanie niż linearny tryb szeregowego przetwarzania informacji. Treść wyłania się z tekstu chaotycznie, fragmentarycznie. Nowy czytelnik wchodzi w interaktywną relację z tekstem, stając się wręcz jego współautorem poprzez dodawanie komentarzy, łączenie linkiem z kolejnym fragmentem czy ilustracją. Jest to czytelnik kompetentny, ponieważ do pełnego uczestnictwa w kulturze konieczna jest mu umiejętność technologiczna, czytelnicza i krytyczna. Musi nie tylko dobrze posługiwać się narzędziem, programem ale również potrafić porządkować informacje i sprawnie weryfikować dane. Pytaniem pozostaje czy taki Nowy Czytelnik jest ewolucyjnym następcą czytelnika „znawcy” czy „potocznego” z tradycyjnych podziałów, a może stanowi zupełnie nową grupę. Czytelnik „znawca” charakteryzuje się stosowaniem 14 Piszczek K., Czytelnictwo przyszłości, „Bibliotekarz Zachodnio-Pomorski" nr 3/4, 1988, s.22-29

21



wyuczonego aparatu interpretacyjnego. Jego odbiór dzieła jest raczej chłodny emocjonalnie, wycofany. Traktuje on literaturę trochę jak dzieło malarskie, którego kontemplacja wymaga bezinteresownego dystansu. Mniej skupia się na plastyce tekstu za to wręcz przesadnie doszukuje się metafor, nawet tam gdzie ich nie ma. Do tej grupy należą zazwyczaj krytycy literaccy oraz humaniści o wysokiej kulturze czytelniczej i wyższym wykształceniu. W przeciwieństwie do „znawcy”, czytelnik „potoczny” nie stosuje wyuczonych reguł interpretacji, w recepcji dzieła kieruje się raczej doświadczeniem życiowym i własną wizją życia, którą stara się potwierdzić a nie pogłębić. Czyta empatycznie, i jest bardziej podatny na tego typu literaturę. Bardziej przeżywa treść, zwraca uwagę raczej na plastykę niż strukturę tekstu. Nie podlega zjawisku hiperodczytywalności metafor. Jest przeciwieństwem typu specjalisty i jednocześnie nie jest czytelnikiem „wirtualnym”, czyli idealnym. Odbiega od założonego przez autora odbiorcy tekstu, nie jest w stanie wychwycić wszystkich zależności i nawiązań. Według Głombiowskiego obraz takiego czytelnika „wirtualnego” jest szczególnie widoczny w szacie graficznej i okładce książki. Można więc powiedzieć, że jest to wspólne wyobrażenie autora tekstu i grafika14. Po raz pierwszy na taki rozdźwięk czytelnika realnego i idealnego zwrócił uwagę Roman Ingarden w swojej koncepcji recepcji literatury.15 Szczególnie podkreślał on, że oba typy nie mają zazwyczaj ze sobą nic wspólnego. Tekst zawsze zawiera w sobie projekt jego odczytania dostosowany do adresata idealnego będącego projekcją autora. Do rozczarowującego zderzenia dochodzi w momencie oddania tekstu czytelnikowi realnemu, który wykoślawia treść filtrując ją przez własny światopogląd, nie rozumie wszystkich nawiązań i nie odczytuje prawidłowo metafor. Taki jest też omawiany Nowy Czytelnik, który jednak poprzez swoją interaktywność wyraża owe wykoślawienia i uczestnicząc w recepcji interaktywnych zachowań innych czytelników ma możliwość dostrzeżenia i skonfrontowania deformacji interpretacyjnych, dzięki czemu sięga szerszej perspektywy odbioru dzieła. Czyli, jak powiedział Gadamer „realizuje funkcje czytelnicze by odnaleźć siebie i świat”16.

15 16

Ingarden R., O dziele literackim, PWN, Warszawa 1960 Gadamer H.G., Prawda i metoda, PWN, Warszawa 2007

23



1.2. Mechanizm czytania

1.2.1. Złożony proces poznawczy Już sama wielość definicji i niezadowalający ich kształt, świadczą o tym jak złożonym i wielopoziomowym zjawiskiem jest proces czytania. Skupiając się tylko na fizjologicznym aspekcie czynności, odnosimy wrażenie ogromnego spłycenia i nieadekwatności opisu, pominięcia prawdziwej istoty czytania jaką nie jest wodzenie oczami po znakach graficznych i dekodowanie ich, ale wydobywanie znaczeń, tworzenie z nich sensów i śledzeniu potoków myśli. Pomijając jednak część fizjologiczną pozostajemy z definicją nieprecyzyjną, równie dobrze opisującą dowolną inną czynność przekazywania fregowskich sensów i znaczeń. Słownik Pedagogiczny W. Okonia definiuje czytanie jako „kojarzenie znaków pisma (druku) jakiegoś języka z treścią danego tekstu”17. D. Elkonin doprecyzowuje w swojej

lingwistycznej definicji, że „czytanie jest to tworzenie dźwiękowej formy słowa, czyli organizacja dźwięków w określonym następstwie czasowym na podstawie ich obrazu graficznego, niezależnie od tego czy są one zrozumiałe dla osoby czytającej czy nie”18. Jak widać, obie definicje mówią w jakiś sposób o omawianej czynności, ale żadna w pełni nie opisuje jej fenomenu. Tego typu definicji można przywołać znacznie więcej. M. Linker i C. McCullough twierdzą, że „czytanie polega na rozpoznawaniu drukowanych lub pisanych symboli służących jako bodźce do przywoływania znaczeń nagromadzonych dzięki wcześniejszym doświadczeniom życiowym i tworzeniu nowych znaczeń drogą manipulowania pojęciami, które czytelnikowi są już znane”19 H. Mystkowska pisze, iż „proces czytania polega na rozpoznawaniu, identyfikowaniu i odróżnianiu wzrokiem znaków i obrazów graficznych, wiązaniu ich z wyobrażeniem słuchowym oraz ze znaczeniem, z treścią, której są nośnikiem”20. Podobnie definiuje I. Styczek – „czytanie to umiejętność rozszyfrowania kodu graficznego”21. E. Malmquist stworzył nieco szerszą definicję – „czytanie należy rozumieć jako szereg wspólnych umysłowych działań, które w dużym stopniu są odmienne, bo zróżnicowane w zależności od wieku i dojrzałości

17 18 s. 101 19 20 21

Okoń W., Nowy słownik pedagogiczny, Warszawa 2001, s. 65 Brzezińska A., Burtowy M., Psychopedagogiczne problemy edukacji przedszkolnej, Poznań 1985, Tinker M., Podstawy efektywnego czytania, Warszawa 1980, s. 15 Mystkowska H., Uczymy czytać w przedszkolu, s. 8 Styczek I., Logopedia, Warszawa, 1979, s. 519

25



czytającego od rodzaju czytanego tekstu, stopnia jego trudności oraz od celu czytania”22. Wydaje się, że ta ostatnia najlepiej obrazuje skalę złożoności problemu z jakim mamy do czynienia i wielość mechanizmów poznawczych zaangażowanych w ów wielopoziomowy proces. Malmquist wyróżnia szereg komponentów z jakich składa się aktywność czytania: wrażenia wzrokowe, percepcja w kontekście rozumienia poszczególnych wyrazów, funkcje mięśni oczu, zapamiętywanie przeczytanego tekstu, przechowywanie w pamięci faktów z przeszłości oraz działań asocjacyjnych i przetwarzających w wyniku wcześniej nabytych doświadczeń.23 Brzezińska systematyzuje problem do trzech aspektów. Techniczny odnosi się do rozpoznawania, kojarzenia i różnicowania grafemów i fonemów oaz ich odtwarzania werbalnego w odpowiednim czasie; semantyczny, związany z dekodowaniem czyli rozumieniem tekstu oraz aspekt krytyczno-twórczy, polegający na krytycznym oraz refleksyjnym odniesieniu się do odczytywanego tekstu. Definiuje ona czytanie jako „zjawisko wymagające współdziałania szeregu właściwości psychicznych człowieka tj. współdziałania analizatorów (wzrokowego, słuchowego i kinestetycznego), sprawnego przebiegu procesów myślowych, odpowiedzialnych za prawidłową analizę i syntezę informacji, ich przetworzenie, skojarzenie z wcześniejszym doświadczeniem”24. Bardziej skupiona na celu jest definicja J. Zborowskiego, który pisze, że „głównym celem nauki czytania jest rozumienie treści czytanego tekstu”25. Dla niego dobry czytelnik przede wszystkim stara się uchwycić sens. Czytając, ujmuje wzrokiem całe grupy wyrazów i dostosowuje tempo czytania do tempa ujmowania treści. Gdy spostrzega wyrazy nieznane, zwalnia i zwraca uwagę na ich elementy składowe. W innym wypadku przebiega wzrokiem z pewnym stałym przyspieszeniem. Według badacza proces rozumienia czytanego tekstu obejmuje następujące komponenty: spostrzeganie graficznych znaków słów, wiązanie wyobrażeń wzrokowych ze słuchowo–dźwiękowymi w celu wykrycia znaczeń określonych słów, pamiętanie sensu przeczytanych wyrazów w momencie, gdy czyta się już następne wyrazy, przewidywanie dalszego ciągu czytanego tekstu od strony gramatycznej lub semantycznej, kojarzenie wyróżnionych ogniw znaczeniowych w całości myślowe, kontrolę przewidywań w oparciu o ponowne czytanie tekstu lub szukanie logicznych powiązań elementów.26 22 Malmquist E., Nauka czytania w szkole podstawowej, Warszawa 1982, s. 117 23 Tamże, s. 24 24 Brzezińska A., Burtowy M., Psychopedagogiczne problemy edukacji przedszkolnej, Poznań 1985, s. 99-101 25 Zborowski J., Początkowa nauka czytania, Warszawa 1959, s. 158 26 Tamże, s.163

27



Podsumowując charakterystyki podane w powyższych definicjach uzyskujemy obraz czytania jako procesu opierającego się na integracyjnej działalności mózgu. Czynności intelektualne w procesie są nierozdzielne z sensorycznymi. Jako proces intelektualny wymaga od czytelnika odpowiedniego zasobu wiadomości, doświadczenia, kompetencji językowych w postaci języka biernego i zdolności realizacji językowej w postaci języka czynnego. Istotny w procesie jest również ośrodek emocjonalny, pobudzany tworzeniem obrazów mentalnych treści motywowany poszukiwaniem przyczyn i następstw przedstawionych faktów. Wewnętrzne obrazy rzeczywistości czytelnika pobudzają jego ośrodki pamięci, mowy, wyobraźni, zdolności porównywania, odnoszenia do własnych doświadczeń i umiejętności przewidywania zdarzeń. Są one odbiciem treści, której wydobycie jest celem i sensem podejmowania aktywności czytania. 1.2.2. Teorie i modele mechanizmu czytania Pierwsze badania nad psychofizjologicznymi mechanizmami czytania sięgają II połowy XX wieku. Skupiono się wówczas na badaniu fizjologii ruchów oczu i zakresu pola spostrzeżeniowego. Za pomocą pierwszych, skonstruowanych wówczas okulografów odkryto, że ludzkie wodzenie oczami po strofach tekstu faktycznie nie jest płynne, ale składa się z serii skomplikowanych ruchów skokowych (przednich), wstecznych oraz przerw fiksacyjnych. Odkrycie to stanowiło kamień milowy w badaniach nad systemem percepcji wzrokowej ze względu na ujawnienie gigantycznej różnicy w subiektywnym poczuciu i faktycznym przebiegu procesu widzenia. Największy wpływ na pierwsze modele miała teoria analizatorów i odruchów warunkowych I.P. Pawłowa, w oparciu o którą uznano, że czytanie jest funkcją analizatora wzrokowego i jego nauka polega na warunkowaniu klasycznym. Nadal nie potrafiono jednak rozwiązać problemu rozumienia słów jako całości (mechanizm zstępujący czy wstępujący) oraz zdolności do odczytywania słów nieznanych. Pytaniem pozostawał również sposób identyfikacji tekstu (poprzez bezpośredni dostęp do znaczeń czy zapośredniczenie fonologiczne). Wiek XX wraz z rozwojem technologii pozwolił na badanie mechanizmu czytania wieloma, niekiedy niezwykle wysublimowanymi metodami i zaowocował (szczególnie w drugiej połowie) wielością sprzecznych często ze sobą modeli.

29



Zasadniczo należy rozdzielić te, które dotyczą nauki czytania, których istnienie jedynie zaznaczam, oraz modele biegłego czytania, ponieważ czynności te angażują różne zasoby poznawcze. Wśród samych teorii skupionych wokół biegłego czytania można wydzielić podstawowy podział na grupę modeli zstępujących, czyli zakładających sterowanie przez kontekst, oraz wstępujących, czyli zakładających sterowanie przez bodziec. Prototypowy model sterowania przez kontekst został zaproponowany przez Smitha27 w 1971 roku. Czytający opiera się, według niego, na znajomości ograniczeń semantycznych i syntaktycznych oraz niejawnej wiedzy o redundancjach ortograficznych, które wraz z reprezentacjami słów stanowią wspomniany kontekst. Wpływa on bezpośrednio na sposób percepcji informacji bodźcowej niższego poziomu, jaki stanowią znaki graficzne. Słowa reprezentowane są, według Smitha, jako równoważne funkcjonalnie cechy umysłowe liter w słowie, to znaczy linie, kąty i krzywe jako pewne proporcje i relacje, co umożliwia rozpoznanie jako tej samej litery znaków pisanych różnymi fontami. Każde słowo posiada tzw. krytyczny zestaw cech na podstawie którego, po symultanicznym wyodrębnieniu cech wszystkich liter w słowie, następuje dopasowanie w pamięci i rozpoznanie słowa (w sensie semantycznym) z pominięciem przekodowania fonologicznego, potwierdzające oczekiwania odbiorcy (patrz diagram 1). Badania empiryczne w nikłym tylko stopniu wspierają teorię Smitha, bo choć zgodność semantyczna faktycznie wpływa na szybkość rozpoznawania słów w tekście (prawdopodobnie jest to bardziej kwestia prymowania), to nawet osoby bardzo biegłe w czytaniu potrafią przewidzieć w czytanym tekście zaledwie jedno słowo na cztery. W związku z tym badacze szybko odeszli od koncepcji zstępującej na rzecz rozkwitu coraz to nowych koncepcji wstępujących. Chronologicznie rozpatrując rozwój modeli sterowania przez bodziec, należy zacząć od tzw. modeli całego słowa, które nazwę zawdzięczają wspólnemu założeniu, że istnieje jednostka wzorcowa, czyli unikatowa i psychologicznie niepodzielna reprezentacja słowa drukowanego. Bodziec w postaci takiego słowa jest analizowany poprzez kodowanie scalające, całościowo i z pominięciem poszczególnych liter, w efekcie powołując reprezentację sensoryczną grafiki, która zostaje porównana z jednostką wzorcową, a następnie o ile takowa jest zgodna, 27 Koncepcje Smitha, Massaro, Gough’a, LaBerge & Samuels’a, Coltheart’a, Mortona, Mc Lelland & Rumelheart’a oraz Foster & Taft’a przedstawione zostały za: Psycholingwistyka, red. J. Berko Gleason, N. Berstein Ratner, GWP, Gdańsk 2005

31


diagram 1

Model sterowania przez kontekst słowo drukowane

symultaniczne wyodrębnianie cech wszystkich liter

rozpoznanie krytycznego zestawu cech

dopasowanie odpowiednika w pamięci

rozpoznanie słowa

diagram 2

Model sterowania przez bodziec słowo drukowane (bodziec)

kodowanie scalające

porównanie z jednostką wzorcową

rozpoznanie

reprezentacja sensoryczna

dostęp do znaczenia


następuje rozpoznanie i otwiera się dostęp do znaczenia danego słowa (patrz diagram 2). Teoria ta oparta została głównie na odkryciu efektu wyższości słowa, udokumentowanego doświadczalnie z wysoką rzetelnością. Pominięto jedynie fakt, że efekt ten dotyczy najprawdopodobniej mechanizmu pamięci krótkotrwałej a nie zjawisk percepcyjnych jako takich. Modele liter-składowych dodatkowo zakładają, że do rozpoznania słowa konieczne jest jeszcze rozpoznanie liter, które się na nie składają. W miejscu kodowania Massaro postulujący przetwarzanie równoległe cech liter, pisze o rozpoznaniu wstępnym, które, przechodząc w rozpoznanie wtórne, pozwala na bezpośredni dostęp do znaczeń słów. Gough natomiast, postulując przetwarzanie szeregowe, zwraca uwagę na konieczność dołączenia do modelu przetwarzania fonemicznego w postaci reguły odpowiedniości grafem-fonem GPC. Oznacza to, iż wszystkie litery w słowie zostają przetworzone na dźwięk, który we współbrzmieniu ujawnia słowo i otwiera dostęp do jego znaczenia. Różnica pomiędzy hipotezami opiera się więc głównie na założeniu bezpośredniego lub zapośredniczonego fonemicznie dostępu do znaczenia słowa i - pomimo wielu argumentów empirycznych, wysuwanych przez każdą ze stron w celu podważenia stanowiska przeciwnego kwestia ta pozostaje nierozwiązana do dziś. Kolejną grupę wśród koncepcji wstępujących stanowią modele wielopoziomowych i równoległych systemów kodujących. Wśród nich prym wiedzie wielopoziomowy model La Berge’a i Samuelsa oraz model równoległego systemu kodującego Coltheartha. Postulują istnienie więcej niż jednej jednostki rozpoznawania i proponują alternatywne mechanizmy identyfikacji słowa. Na tym jednak kończy się ich podobieństwo. Model LaBerge’a i Samuelsa (patrz diagram 328) za centralny mechanizm sterujący czytaniem uznaje uwagę oraz proces uczenia

się percepcyjnego. Uwaga zostaje nakierowana na kod najniższego poziomu – cechy znaku graficznego i właśnie poprzez uczenie się percepcyjne wytwarza stopniowo kody wyższych rzędów – litery, wzorce pisowni, słowa. W momencie opanowania kodu z jednego poziomu, uwaga ulega automatyzacji i przenosi się o kod wyżej aż do szczytowego poziomu rozumienia tekstu w bezpośrednim dostępie wzrokowym. Jeżeli w tekście pojawi się słowo nieznane, uwaga powraca do niższego poziomu dostępu zapośredniczonego (GPC). Ten powstały w 1974 roku model zyskał poważne wsparcie empiryczne i wciąż jest chętnie rozważany przez badaczy. 28

Diagram skonstruowany na podstawie ryciny 9.4 w Psycholingwistyka, wyd. GWP, str. 461

33


diagram 3

Model LaBerge’a i Samuelsa (1974)

pamięć fonologiczna

pamięć semantyczna

powierzchnia sensoryczna

pamięć wzrokowa

kod wzorca pisowni wzrokowy kod słowa wzrokowy kod grupy słów fonologiczny kod wzorca pisowni fonologiczny kod słowa fonologiczny kod grupy słów kod znaczeniowy słowa kod znaczeniowy grupy słów kod znaczeń czasowo - przestrzennych kod epizodyczny

natychmiastowe skupienie uwagi

pamięć epizodyczna


Konkurujący model równoległego systemu kodującego Coltheartha, nazywany jest również modelem podwójnej drogi, ponieważ zakłada istnienie odrębnych systemów kodujących, które dokonują rozpoznania niezależnie od siebie. W zależności od natury ciągu liter, aktywizuje się jedna z dróg i prowadzi do rozpoznania i identyfikacji słowa. Droga bezpośrednia opiera się na skojarzeniu specyficznym dla słowa i natychmiastowo łączy reprezentację graficzną z jej leksykalnym odpowiednikiem, natomiast droga niebezpośredna, stosuje reguły GPC, przez co jest procesem powolniejszym. Hipoteza dwóch dróg wyłoniła się głównie z badań nad osobami z uszkodzeniami mózgu, dotkniętymi dysleksją głęboką bądź powierzchniową. Ci pierwsi utracili zdolność odczytywania pseudosłów i popełniają pomyłki semantyczne, co wskazywałoby na uszkodzenie drogi niebezpośredniej, natomiast dyslektycy powierzchniowi pomimo zachowania zdolności dekodowania pseudosłów, popełniają pomyłki w słowach nieregularnych, co wskazywałoby na utratę bezpośredniej drogi dostępu. Krytycy uznają jednak, że te same dane można wytłumaczyć stopniem uszkodzenia jednego, a nie istnieniem dwóch mechanizmów. Tego samego dowodzą badania szybkości odczytywania słów znanych i często występujących (które miałyby korzystać z drogi bezpośredniej), jako możliwe do zinterpretowania niedualistycznie. Koncepcja Coltheartha pozostaje więc wciąż kontrowersyjna. Kolejna grupa teorii to modele aktywacji lub logogenu. Po raz pierwszy ich twórcy zajęli się wyjaśnieniem nie tylko sposobu kodowania i identyfikacji, ale cofnęli się o krok, próbując opisać sam mechanizm aktywacji kodu, czyli tego, jak to się dzieje, że słowo drukowane działa jako bodziec. Morton założył istnienie logogenu, czyli hipotetycznego układu neuronalnego reprezentującego słowo drukowane, który działa jak urządzenie wykrywające typu progowego. Logogen aktywizuje się w wyniku akumulacji informacji z bodźca sensorycznego i kontekstu językowego, a jego wartość progowa determinowana jest częstością występowania danego słowa w druku. W późniejszych pracach badacze skłaniają się raczej do wrażliwości logogenów na morfemy, a nie słowa, jednak podtrzymują pozostałe twierdzenia co do funkcjonowania układu. Według tego modelu, czytanie przebiegać miałoby w następujących etapach: bodziec w postaci drukowanego słowa pobudza logogeny, ów właściwy po osiągnięciu wartości progowej wyładowuje się co prowadzi do rozpoznania słowa i otwarcia dostępu do jego znaczenia. Niestety Morton w nikłym stopniu udokumentował swój model oparty na śledzeniu przewodnictwa

35



neuronalnego i model logogenu nie znalazł wielu kontynuatorów. Stworzył nowy standard modeli opartych na metaforze komputacyjnej, starających się kompleksowo wyjaśnić mechanizm od poziomu neuronalnego po rozumienie tekstu. Jednym z następców logogenu jest model aktywacji interakcyjnej McClellanda i Rumelharta oraz zrewidowana wersja tej teorii w postaci modelu rozproszonego przetwarzania równoległego McClellanda i Seidenberga. Autorzy zakładają, że rozpoznanie słowa jest rezultatem rywalizacji aktywizacji hamującej i pobudzającej powiązanych ze sobą detektorów nazywanych węzłami, które w swojej konstrukcji przypominają logogeny. Węzły odpowiadają cechom znaków graficznych, literom i słowom, mają więc hierarchiczny układ budowy. Jednocześnie poziom pobudzenia danego węzła jest częściowo zdeterminowany przez sam bodziec a częściowo przez słowa sąsiednie pozostające w polu postrzeżeniowym (patrz diagram 4). Pozwala to wyjaśnić wpływ kontekstu na szybkość rozpoznawania słów a jednocześnie pozostawia model w obrębie teorii wstępujących. Aktywizacji w czasie t1 można przypisać rzeczywistą wartość liczbową, co umożliwia przeprowadzanie symulacji komputerowych modelu, a tym samym empirycznego testowania jego zgodności z badaniami eksperymentalnymi. Na szczególną uwagę zasługuje bardzo wysoka zgodność modelu z odkryciami Glushki, dotyczącymi płynniejszego odczytywania pseudosłów w warunkach zgodności pisowni ze słowami o wymowie regularnej (feal/ real) w opozycji do tych o pisowni zbliżonej do słów o wymowie nieregularnej (tave/ have). Model ten potwierdza przewidywania efektu wyższości słowa, o którym była już mowa przy tzw. modelach całego słowa. W późniejszym okresie, McClelland pod wpływem badań Seidenberga zrewidował swoją teorię, rezygnując z węzłów jako odpowiedników słów aby skłonić się do bezpośredniego połączenia węzłów z poziomu trzyliterowych wzorców z węzłami ich odpowiedników femicznych. Rezygnuje tym samym z istnienia jakiegokolwiek słownika umysłowego oraz roli kontekstu językowego w identyfikacji słowa. W praktyce jednak model rozproszonego przetwarzania równoległego potrafi symulować dużo więcej zjawisk naturalnych niż jakikolwiek wcześniej i większość badaczy uznaje go obecnie za obowiązujący.

Dla dopełnienia pełnego przeglądu modeli należy również wspomnieć o modelach przeszukiwania leksykalnego, których klasyczną formę przedstawia model Fostera i Tafta. W przeciwieństwie do biernej i automatycznej aktywacji detektorów w modelach interakcyjnych opisanych powyżej, Foster zakłada, że rozpoznanie słowa jest w rzeczywistości kumulacją uporządkowanego przeszukiwania adresów

37


diagram 4

wejście wyższego poziomu

poziom słów

poziom liter

poziom fonemów

poziom cech wzrokowych

poziom cech akustycznych

wejście wzrokowe

wejście akustyczne


leksykalnych, które otwierają drogę do przechowywanych w strukturach pamięci informacji na temat danego słowa. Ów adres leksykalny słowa zlokalizowany jest w pliku dostępu ortograficznego znajdującym się w jednym z wielu zbiorników (bins) grupujących reprezentacje słów o podobnych właściwościach ortograficznych, a uporządkowanych ze względu na frekwencję użycia. Kodem dostępu do danego zbiornika jest, wg autora, pierwsza sylaba morfemu rdzeniowego, nazywana podstawową ortograficzną strukturą sylabiczną (BOSS). Struktura ta wydzielana jest metodą rozbioru iteracyjnego zachowującą integralność ortograficzną i morfologiczną. Po zlokalizowaniu zbiornika zawierającego adres leksykalny słowa bodźcowego, z wzorem bodźca zestawiane są po kolei wszystkie kody, jakie ów zawiera w porządku częstości ich występowania. Po znalezieniu dopasowania otwiera się dostęp do adresu leksykalnego i po powtórnej kontroli zgodności reprezentacji ze słowem bodźcowym słowo zostaje zidentyfikowane a tym samym otwiera się dostęp do jego znaczenia. Głównym wsparciem empirycznym modelu były badania Fostera nad szybkością rozpoznawania pseudosłów i słów o różnej frekwencji występowania, krytycy uznali jednak, że ich wyniki równie dobrze wyjaśnia model McClellanda i w efekcie braku jednoznacznych wyników potwierdzających prawidłowość modelu przeszukiwania leksykalnego, nie znalazł on wielu zwolenników Pomimo wieloletnich badań i prób skonstruowania adekwatnego względem doświadczeń eksperymentalnych modelu, wciąż nie można uznać, że potrafimy dokładnie wyjaśnić przebieg procesu i mechanizmy zaangażowane w czytanie. Na poziomie fizjologicznym wciąż zatrzymujemy się na etapie teorii układu

funkcjonalnego Łurii, która opisuje proces czytania jako złożony, dynamiczny układ funkcjonalny na który składają się pobudzenia różnych, często odległych od siebie pól kory mózgowej. Podstawowe funkcje sensomotoryczne (związane z odbiorem, identyfikacją bodźców zmysłowych) zabezpieczają pola projekcyjne pierwszorzędowe usytuowane w jądrach analizatorów. W polach drugorzędowych dokonuje się analiza bodźców odbieranych przez poszczególne analizatory oraz ich synteza w całościowe struktury spostrzeżeniowe, które z kolei tworzą podstawę obrazów wzrokowych, słuchowych, artykulacyjnych czytanych wyrazów. W polach trzeciorzędowych dokonuje się koordynacja obrazów spostrzeżeniowych, będąca podstawą rozumienia czytanych tekstów. Czytanie angażuje więc różne analizatory i różne piętra systemu nerwowego, z których każdy pełni określoną rolę. We wstępnej fazie czytania nadrzędną rolę pełnią następujące funkcje: wzrokowa, słuchowa i

39



artykulacyjna. W etapie końcowym, gdy czynność ta jest zautomatyzowana wiodącą rolę pełni rozumienie tzw. myślowa interpretacja tekstu. Na poziomie symulacji poszczególnych etapów najwierniejszy wynikom eksperymentalnym pozostaje model rozproszonego przetwarzania równoległego McClellanda i Seidenberga, który, w zestawieniu z ogólniejszą teorią Łurii daje nam pewne, choć wciąż mgliste wyobrażenie o funkcjonowaniu naszego umysłu.

41



1.3. Embodiment Embodiment, czy inaczej embodied cognition jest jednym z podstawowych kierunków we współczesnej filozofii umysłu, będącym w opozycji do komputacjonizmu i dualizmu kartezjańskiego. Wypływające z niego założenia ontologiczne mają ogromny wpływ na rozwój współczesnej psychologii, kognitywistyki, badań nad sztuczną inteligencją i nauk pokrewnych. Podstawową tezą teorii ucieleśnienia, jak tłumaczy się popularnie jej nazwę w polskich publikacjach, jest nierozłączność natury umysłu i ciała, gdzie res cogitans jest w znacznym stopniu zależne, bo formowane poprzez res extensa, których odrębne nazewnictwo, przejęte jeszcze z tradycji kartezjańskiej, stanowi jedynie formalną pułapkę. Aspekt cielesny, rozumiany jako jedność układu motorycznego, percepcyjnego i interakcji ciała ze środowiskiem zewnętrznym (situatedness), formuje, według badaczy embodimentu, nasz wewnętrzny obraz świata, czyli wyższe konstrukcje mentalne (kategorie i metafory) oraz sposób rozumowania i rozwiązywania problemów. Embodied cognition stanowi obiekt badań wielu dziedzin nauk szczegółowych (poza psychologią i kognitywistyką), jak językoznawstwo, badania układów dynamicznych, sztuczna inteligencja, robotyka czy neurobiologia. Jedne z najpopularniejszych dotyczą jednak psychologii społecznej, a dokładniej zakresu wchodzenia w interakcje społeczne oraz podejmowania decyzji. Jak dowodzą Glenberg z zespołem w publikacji z 2010 roku29 w zależności od sposobu, w

jaki badany trzyma ołówek, zębami – napinając mięśnie charakterystyczne dla uśmiechu lub ustami – napinając mięśnie aktywowane podczas ekspresji smutku, szybciej rozpoznaje bodźce wizualne zgodne z daną emocją, co oznacza że badany indukuje sobie daną emocję samym napięciem mięśniowym, bez konieczności zaistnienia dodatkowych okoliczności środowiskowych. Również odpowiednie doznania sensoryczne są elementem rozumienia męskości czy kobiecości. Badani oceniali niejednoznaczne twarze jako męskie lub kobiece w zależności od tego czy trzymali w rękach twardą czy miękką kulę.30 Publikacje George’a Lakoff ’a i współpracowników31 pokazują również jak ogromny jest wpływ naszej cielesności

29 Glenberg A., Havas D., Becker R., & Rinck M., Grounding language In body states: the case of emotion, 2010 30 Wojciszke B., Psychologia społeczna, wyd. Naukowe Scholar, Warszawa 2011 31 Lakoff & Johnson (1980), Lakoff (1987), Lakoff & Turner (1989), Lakoff & Johnson (1999), Lakoff & Nunez (2000)

43



na język którym się posługujemy. We wszystkich językach świata pojawiają się analogiczne metafory cielesne łączące np. wartościowanie emocjonalne z jasnością/ temperaturą czy kategoryzacją przestrzenną (np. mój ojciec jest mi bliski, ale z matką utrzymuję dystans). Na podstawie tych i wielu pokrewnych badań, badacze AI jak Rodney Brooks, Hans Moravec czy Rolf Pfeifer, postawili tezę, że prawdziwa sztuczna inteligencja może zostać skonstruowana tylko poprzez maszyny sensoryczne o zdolnościach motorycznych, będące w stanie wchodzić w cielesne interakcje ze światem. A neuronaukowcy jak Gerald Edelman czy Antonio Damasio wyprowadzili teorie dotyczące ścisłej zależności cielesnej aspektu świadomości, samoświadomości i wolnej woli. W kontekście tej pracy najciekawsze wydają się jednak prace Alvina Libermana z zespołem z Haskins Labolatories (The motor theory of speech perceptron)32 dowodzące, że identyfikacja słów jest ucieleśniona w percepcji ruchów obecnych przy, oraz koniecznych do, ich produkcji33. Równie interesujące wydają się w tym kontekście badania Balcetisa i Dunninga34 dowodzące wpływu dysonansu poznawczego wywołanego silnymi emocjami na postrzeganie odległości i kategorii przestrzennych w trakcie ich odpamiętywania. Szczególnie interesuje mnie tu możliwość odwrócenia zależności, tak jak przy badaniach Glenberga z wpływem napięcia mięśniowego na indukcję emocji, czyli możliwość odtwarzania silnych emocji poprzez stworzenie/odtworzenie charakterystycznego środowiska przestrzennego poprzez oddalenie lub zbliżenie treści. Należy tu również dodać, że ucieleśnienie ma zwykle charakter automatyczny i bezwiedny, co oznacza, że nie pochłania dodatkowych zasobów poznawczych. Aspekt ten jest szczególnie istotny, jeżeli chcemy wprowadzić go jako metodę wspomagania uczenia. Jak wynika z badań Scotta i zespołu35, dotyczących wspomagania zapamiętywania tekstu poprzez embodied cognition, badani z grupy 32 Liberman A.M., Cooper F.S., Shankweiler D.P., Studdert-Kennedy M., (1967) Perception of the speech code, „Psychological review” 74 (6), s.431-61 Liberman A.M., Mattingly I.G. (1985), The motor theory of speech perceptron revised, „Cognition” 21 (1), s. 1-36 Liberman A.M., Mattingly I.G. (1989), A specialization for speech perceptron, „Science” 243 (4890), s. 489-494 Liberman A.M., Whalen D.H. (2000), On the relation of speech to language, „Trends In cognitive sciences” 4 (5), s. 187-196 33 Galantucci B., Fowler C.A., Turvey M.T. (2006), The motor theory of speech perception reviewed., „Psychonomic Bulletin & Review” 13 (3), s. 361-377 34 Balcetis E., Dunning D. (2007), Cognitive dissonance and the perceptron of natural environments, „Psychological Science” 18 (10), s. 917-921 35 Scott C.L., Harris R.J., Rothe A.R. (2001) Embodied cognition through improvisation improves memory for dramatic monologue, „Discurse Process” 31 (3), s. 293-305

45



eksperymentalnej, w której zastosowano dodatkowy warunek „ucieleśnionego przetwarzania” tekstu, znacząco lepiej odtwarzali tekst na poziomie zarówno dosłowności jak i parafrazowania treści. Eksperyment polegał na przedstawieniu do dwukrotnego zapoznania się kilku grupom badanych tekstu monologu, a następnie albo omówienia go, albo odpowiedzenia na pytania na temat treści, albo odegrania go w formie pierwszoosobowej (wczucia się w tekst i dołączenia ruchu scenicznego, odniesienia do przestrzeni). Następnie po dwutygodniowej przerwie poproszono o odtworzenie z pamięci tekstu monologu i oceniano stopień podobieństwa odpamiętania (słowo w słowo czy parafrazowane). Wyniki jednoznacznie wskazały, że kinetyczne przetworzenie treści semantycznych zdecydowanie poprawiło zdolność badanych do ich skutecznego uczenia się, względem grup przetwarzających tekst jedynie semantycznie w takim samym zakresie czasu. Prawdopodobnie wiąże się to z dodatkowym zaangażowaniem pamięci epizodycznej oraz płynniejszym przetwarzaniem treści, właśnie poprzez ucieleśnienie. Zbieżne wnioski wyłaniają się również z innych badań nad zależnością treści semantycznych a ich rozmieszczeniem przestrzennym. W serii badań van Dantzig i współpracownicy36 dowiedli niewspółmiernie szybsze i płynniejsze przetwarzanie

treści o zabarwieniu pozytywnym lub w innych warunkach pejoratywnych, o ile ich rozmieszczenie było zgodne z naturalnym odruchem przybliżania czy centrowania tych wartościowanych pozytywnie oraz oddalania, przesuwania na peryferia tych o ewaluacji negatywnej. Podobne wsparcie teorii embodimentu wykazano w szacowaniu wartości przedmiotów w badaniu nad zależnością odległości osoby oceniającej od ocenianego obiektu37, w którym te oceniane jako bardziej wartościowe umieszczane były przez badanych znacznie bliżej względem własnej osi. Relewantne względem tej pracy są również dodatkowo zaobserwowane efekty innego eksperymentu38, gdzie zanotowano istotne zwiększenie przetwarzania informacji w sytuacji ruchu ciała skojarzonego z zagrożeniem do pozycji statycznej kojarzonej z rozluźnieniem. Teoria ucieleśnienia ma również wielu krytyków. Typowym zarzutem stawianym flagowemu eksperymentowi z wpływem napięcia mięśniowego na rozpoznawanie emocji (eksperyment z ołówkiem) jest błędne przypisywanie wyników

36 Van Dantzig,S., Zeelenberg R., Pecher D. (2009), Unconstraining theories of embodied cognition, „Journal of Experimental Social Psychology” 45 (2), s. 345-351 37 Tamże. 38 Vacharkulksemsuk T., Fredrickson B. L. (2011), Strangers In sync: achieving embodied rapport through shared movements, „Journal of Experimental Social Psychology” 48 (1), s. 399-402

47



embodied cognition miast rozumieć je jako efekt prymowania emocji pozytywnych lub negatywnych poprzez ekspresję określonego wyrazu twarzy. Zarzuty te wydają mi się dyskusją czysto akademicką, jako że nie ustalono czy prymowanie uważa się za jeden z mechanizmów towarzyszących ucieleśnieniu czy stanowi ono jednostkę odrębną. Również inne głosy krytyczne skupiają się raczej na kwestiach definicyjnych, nie starając się podważać danych eksperymentalnych. Niezależnie więc od klasyfikacji, musimy przyjąć za fakt, że jesteśmy w stanie wpływać na nasze zdolności poznawcze przez określony behawior, a pewne usystematyzowane warunki przestrzenne w sposób znaczący interferują z naszą percepcją otoczenia. Możliwe jest zatem, aby manipulując środowiskiem przestrzennym próbować wspomagać w sposób celowy naszą zdolność uczenia się, zapamiętywania, odtwarzania i przekazywania stanów emocjonalnych a także usprawniać płynność przetwarzania danych.

49



1.4. Hipoteza zmiany paradygmatu czytania z ciągłego na hipertekstualny w związku z postępem technologicznym (Internet) Podążając za myślą Nicolasa Negroponte, można opisać współczesność jako przejście od dystrybucji atomów do dystrybucji bitów39. Jak zauważa autor „Being Digital”, coraz mniejszy procent ludzi produkuje, a coraz więcej ludzi zarabia na życie poprzez oferowanie usług lub informacji. Widać to wyraźnie również na rynku kultury, gdzie miejsce przedmiotów – książek, kaset, płyt, wypiera sama treść,informacja pozbawiona atomowego podłoża. Bity te krążą natomiast w nieokreślonej przestrzeni sieci internetowej, co stwarza problem z określeniem nie tylko ich autorstwa, ale również rzetelności oraz praw dystrybucji. Nowy nośnik to jednak również nowe możliwości oraz związana z tym forma podania tekstu, która jak się okazuje stworzyła także nowy paradygmat jego odbioru a tym samym nowy typ czytelnika. 1.4.1. Od książki drukowanej do PDF Początki pisma to historia elitaryzmu, umiejętności zarezerwowanej wyłącznie dla posiadających władzę. Pierwsze zapiski służyły bądź do prowadzenia księgowości, bądź przechowywania wiedzy z założenia tajemnej. W epokach przedklasycznych wyżej ceniono przekaz ustny. Opinia ta przetrwała aż do czasów Platona, który w VII Liście wyznaje, że prawdziwie istotnym informacjom gwarancję dobrego zrozumienia, bez przekłamań interpretacyjnych daje jedynie rozmowa.40 Być może forma dialogów, jaką przyjął w swoich dziełach jest rodzajem kompromisu dla tej właśnie opinii. Dalsze zarzuty wobec pisma można odnaleźć w Fajdrosie, gdzie porte-parole autora, król Tamuz stwierdza, że pismo zabija pamięć, bo ludzie przyzwyczajają się czerpać wiedzę z zewnątrz zamiast własnego wnętrza. W efekcie prawdziwa mądrość zastąpiona zostaje pozorem mądrości.41 W średniowieczu umiejętność czytania i pisania wciąż należała do elity, jednak zapis dzieł literackich czy filozoficznych był już normą, a wszelkie artefakty pisane miały wielką wartość materialną. Iluminowane manuskrypty i kodeksy, cierpliwie przepisywane w klasztorach, poprzez swoją unikatowość bardziej przypominają 39 40 41

Negroponte N., Being Digital, Knopff., New York 1999 Platon, List VII, 326a-b. Platon, Fajdros, wyd. Antyk, 2002

51



dzieła sztuki niż to co dzisiaj rozumiemy pod pojęciem książki. Jednocześnie dostrzegano potęgę słowa pisanego, które mogło stać się potężniejsze od miecza, o czym świadczą zażarte walki jakie Kościół prowadził z pismami heretyckimi niszcząc je i uśmiercając ich autorów. Potwierdzeniem tych obaw okazała się przegrana katolików z protestantami, których najsilniejszą bronią okazał się właśnie druk, a nie zasoby zbrojne. Wynalazek Gutenberga zmienił zasadniczo zarówno charakter książki jak i środowisko skupione wokół jej wyrobu. Powstały nowe zawody drukarza, introligatora i wydawcy, które zmieniły również sposób funkcjonowania tekstów oraz po raz pierwszy wytworzyły normy i zwyczaje edytorskie, które w większości przetrwały do dziś. Renesansowy podział strony, paginacja czy nawet zwyczaj używania czarnych liter na białym tle miał podstawy przede wszystkim ekonomiczne i wynikał z technologii. Wyczyszczenie layautu z ilustracji, rozbudowanych inicjałów i zdobień miało uzasadnienie czysto pragmatyczne. Książka stała się dobrem powszechnym a tym samym gwałtownie rozszerzało się grono czytelników. Kolejny przewrót przyniósł dopiero wiek XIX, kiedy to rewolucja przemysłowa zaowocowała masową, produkcją książek i upowszechniona została technika zadowalającej reprodukcji ilustracji, co zaskutkowało szczególnym rozkwitem rynku książek dla dzieci oraz albumów o sztuce. Wydaje się jednak, że czas panowania druku się kończy, a tradycyjna książka z jej utrwalonymi kanonami estetyki odejdzie wkrótce do lamusa. Albo, z drugiej strony, powróci do swojej dawno zapomnianej formy unikatowego towaru luksusowego, inwestycyjnego dzieła sztuki. Wszystko to za sprawą maszyny

Turinga. Według niektórych nic nie jest w stanie zastąpić papierowej książki, ale wykładniczo rosnąca liczba entuzjastów e-booków świadczy o czym innym. Jeszcze niedawno najwięcej krytyki skupiało się na męczącym czytaniu z ekranu i niemożności korzystania z elektronicznych tekstów w podróży. Odkąd jednak pojawiły się e-readery na przykład w rodzaju produktów Kindle firmy Amazon, oparte na technologii e-papieru oraz tablety (przykładowo applowski ipad), krytyka ta zupełnie traci na znaczeniu. Książka elektroniczna daje możliwości o jakich w wersji drukowanej można jedynie pomarzyć. Nieporównywalna ekonomia przechowywania zbiorów, aspekt ekologiczny związany z wycinaniem lasów, płynne wprowadzanie multimediów, wielokrotnie szybsze wyszukiwanie informacji i indeksowanie oraz łatwość i szybkość kopiowania treści to tylko niektóre z cech nowego medium, zaspokajającego potrzeby dzisiejszego czytelnika zanurzonego w

53



mobilnym życiu, którego tempo nieustannie wzrasta. Tak jak druk był naturalną konsekwencją ewolucji kultury w renesansie, e-book wydaje mi się konieczną konsekwencją przejścia do ery dystrybucji bitów. 1.4.2. Hipertekst Nowe medium wymaga również nowej formy opracowywania tekstu. Teksty papierowe redagowane były według norm narzucanych przez technologię druku, e-teksty natomiast odrzuciwszy ograniczenia płaskich, statycznych arkuszy papieru, rządzą się własnymi prawami, których granice wciąż są przesuwane w wyniku dynamicznego rozwoju technologii. Język HTML w jakim najczęściej programowane są wirtualne teksty daje duże możliwości regulacji stopnia i rodzaju fontu, zmiennego koloru liter i tła, wzbogacania tekstów grafiką i apletami oraz, co najbardziej charakterystyczne, wprowadzania łączy hipertekstowych. Swoboda formalna autora jest wręcz nieograniczona. Ponadto sam tekst, wprowadzany w formacie „plain tekst” nie przenosi ze sobą obciążenia formatowaniem, które odtwarzane jest dopiero przez odpowiednią przeglądarkę. Możliwe jest zatem, by każdy użytkownik personalizował wygląd tekstu według własnych potrzeb. Standardem jest już, że przed rozpoczęciem czytania e-booka konfigurujemy rodzaj fontu, stopień wielkości liter, interlinię a nawet wielkość załączonych ilustracji według własnego gustu. Dzięki temu osoby z wadami wzroku lub trudnościami dyslektycznymi pokonują ograniczenia w dostępie do dóbr kultury, z których dotychczas byli wykluczani ze względu na charakter budowy tradycyjnej książki, projektowanej zazwyczaj z myślą o osobach zdrowych. Gdzieś w tej dowolności ginie jednak pewien subtelny przekaz, jakim jest projekt graficzny książki, stanowiący często o jej klimacie. Dobór papieru, formatu, rodzaju druku, oprawy i koniec końców sam skład tekstu wprowadzają nas w progi treści, którą przeczuwamy, choć jeszcze nie znamy. Druk narzucił od samego początku istnienia pewien linearny sposób poznawania tekstu a tym samym, odpowiednio linearne przedstawienie zawartej w tekście myśli. Żeby dobrze zrozumieć intencje autora, konieczne było przeczytanie tekstu w całości, ustalonym porządku, od początku do końca. Jest to część logiki druku o której pisał Walter Ong42. Tymczasem technologia, znosząc

konieczność istnienia jednorodnego fizycznego nośnika tekstu, wniosła nowy 42

Ong W.J., Oralność i piśmienność: słowo poddane technologii, Wyd. KUL, Lublin 1992

55



rodzaj piśmiennictwa wirtualnego, co widoczne jest szczególnie w strukturze i formie tekstów internetowych. Trzeba jednak podkreślić, że to nie pojawienie się sieci wywołało bunt. Już pod koniec XIX wieku, a więc w okresie rozkwitu masowej produkcji książek, Stephane Mallarme zafascynowany teorią przypadkowości i owładnięty ideą uwolnienia słowa, stworzył „Księgę” mającą być sumą wszystkich myśli tworzących konieczność świata. Interesująca jest już sama jej forma. Luźne kartki pokryte tekstem zostały pogrupowane w kilka zeszytów, których okładka wyznacza początek i koniec opowiadania (środek można dowolnie mieszać). Zeszyty zebrane są w większą strukturę, nazywaną księgą, która również zawiera początek oraz koniec historii, przy czym kolejność odcyfrowywania zeszytów pozostaje przypadkowa. Nigdy nie ukończony projekt miał wyobrazić nowatorską ideę struktury otwartej, dzieła, które podczas każdej kolejnej lektury, tworzone byłoby na nowo. Wielkość kombinacji miała otworzyć wszechświat możliwych tekstów, zamkniętych w jednym artefakcie. Dzisiaj realizacja idei Mallarme’go nie byłaby już tak skomplikowana. Właściwie, można by powiedzieć, że Internet jest ucieleśnieniem marzeń poety. Strona WWW przekazywana jako plik źródłowy, zawiera tekst oraz znaczniki interpretowane przez przeglądarkę. Kolejność pojawiania się słów na ekranie nie musi być odwzorowaniem kolejności tekstu w pliku, ze względu na istnienie linków (odnośników), które jednym kliknięciem przenoszą nas we wskazane miejsce w danym lub już zupełnie innym tekście. Tym samym porzucamy zakończenie czytanej historii na rzecz zupełnie nowej. Co prawda, wciąż autor decyduje o tym skąd i gdzie poprowadzą nas odnośniki, ale to czytelnik wśród zapętlających się dróg wyznacza trasę i jej zakończenie. Oczywiście, hipertekst nie powstał na potrzeby ilustracji poetyckich, ale z czystego pragmatyzmu. Literaci wykorzystują go do budowania historii interaktywnych. Naukowcom daje możliwość umieszczania bezpośrednich odniesień do źródeł, na które się powołują. Dziennikarze w krótkich notatkach informacyjnych umieszczają linki z rozwinięciem tematu dla zainteresowanych, a są to tylko nieliczne z ogromu zastosowań hipertekstu. I oczywiście wszystko to istniało już przed erą e-litracy, ale upowszechnienie zawdzięcza wygodzie jaką dają urządzenia elektroniczne, gdy zamiast przemierzać kilometry półek bibliotecznych, klikamy jednym palcem bez ruszania się z fotela. Niestety, taka relacja ze słowem zaczyna przypominać przeskakiwanie między kanałami telewizyjnymi za pomocą pilota. Napędzani pragnieniem odkrywania, prześlizgujemy się zaledwie po powierzchni

57



tekstu, wyłapując co ciekawsze okazy i jak Alicja porzucamy dotychczasowy świat znaczeń jeśli tylko na naszej drodze pojawi się wystarczająco zachęcająca królicza nora. Myron Tuman43 ostrzega, że całkowite odrzucenie logiki druku sprawi, że zaniknie umiejętność czytania ze zrozumieniem, interpretowania i umiejętnego przetwarzania treści, ponieważ wgłębianie się w tekst wymuszane przez logikę druku (konieczność zapoznania się z wstępem, rozwinięciem i zakończeniem) będzie niepotrzebne, a wręcz niepożądane. Ewolucja jest jednak nieubłagana i czy chcemy czy nie, linearna logika druku nie przystaje już do rzeczywistość w jakiej egzystujemy. Ilość bodźców, wrażeń i informacji jakimi jesteśmy bombardowani, przekracza wydolność naszych systemów poznawczych. Przestaliśmy doświadczać, jak określiłby to Walter Benjamin44, a

zaczęliśmy przeżywać, czyli poddawać się nieustannemu szokowi, zdziwieniu. Przyswajać info-papkę bez rozgraniczania na elementy pożądane i niechciane, bo atak bodźców paraliżuje nasz system uwagi, dopuszczając najszybciej te które są najgłośniejsze i najbardziej kolorowe, bez względu na treść. Czas ucieka a my wciąż musimy być na bieżąco, jeśli chcemy utrzymać raz zajętą pozycję. Wiedza, umiejętności muszą być nabywane szybko i skutecznie, w przeciwnym razie odstawieni zostajemy na listę wiecznie rezerwowych. Społeczeństwo wywiera presję konieczności odnoszenia nieustannych, do tego spektakularnych sukcesów, następnie promowania ich w każdy możliwy sposób i daje do tego narzędzia. Jak w takiej sytuacji znaleźć czas, motywację i ochotę do cierpliwego podążania za czyjąś myślą, jeżeli możemy w tym samym czasie chwycić sedno wypowiedzi a przy okazji zorientować się już w towarzyszących mu komentarzach i wyrobić sobie opinię na podstawie poglądów innych? Doskonałym przykładem literatury bardzo plastycznie przedstawiającej charakter współczesnego modelu postrzegania świata jest Ulisses Jamesa Joyce’a czy Gra w klasy Julio Cortazara. Płynny, beznarracyjny świat Joyce’a czy bezstrukturowość budowy powieści Cortazara doskonale odzwierciedlają to jak zmienia się sposób zdobywania doświadczenia, strategie poznawania świata z linearnego na symultaniczny, linkujący. Poruszanie się w wirtualnym świecie informacji przypomina mi również opowiadanie Jorge Luisa Borgesa pod tytułem 43 Tuman M., Word Perfect: Literacy in the Computer Age, Pittsburgh University Press, Pittsburgh 1992 44 Benjamin W., Dzieło sztuki w dobie reprodukcji technicznej, [w:] Benjamin W., Anioł historii. Eseje, szkice, fragmenty, Wyd. Poznańskie, Poznań 1996

59



„Ogród o rozwidlających się ścieżkach”, gdzie znajdujemy opis powieści będącej jednocześnie labiryntem. Historia rozwija się równocześnie we wszystkich możliwych kierunkach, zawierając w sobie jakby wszystkie możliwe wszechświaty alternatywnych wyborów głównego bohatera. Jak pisze Marcin Sieńka w swojej pracy analizując Internet w kontekście filozofii kultury, stał się on „Księgą totalną, obejmującą wszystkie księgi”45, a nowoczesny człowiek najchętniej przeczytałby je wszystkie na raz.

45 Sieńka M., Internet jako przedmiot filozofii kultury, protokół dostępu: http://simon.hell.pl/cwp/ cwp04.html 04 kwietnia 2012

61



1.5. Efektywność uczenia się – 2D a 3D Prekursorem badan nad efektywnością uczenia się w systemie dwu lub trójwymiarowym, zainicjował od połowy lat 90., M. J. Jacobson. Efektem tych działań był rozkwit systemów 3D-VLEs imitujących rzeczywistość dla celów komercyjnych lub szkoleniowych, a obsługiwanych za pomocą komputerów osobistych (PC) z użyciem lub bez dodatkowego hardware’u w postaci specjalistycznych hełmów (head-mounted displays) czy CAVE46. Obiecujące wyniki sprawiły, że narodziła się nowa gałąź badań interdyscyplinarnych nad potencjałem funkcjonowania w wirtualnej rzeczywistości z wykorzystaniem jej do celów militarnych, szkoleniowych oraz komercyjnych. Hedberg i Alexander47 już w 1994 roku, pisali na podstawie pierwszych wyników badań, że VE (virtual environments) „oferuje potencjał nowego wymiaru doświadczenia nauczania ze zwiększonym oddziaływaniem na ucznia, wiernością odwzorowania i wyższym poziomem zaangażowania”48. Barney Dalgarno w artykule podsumowującym dwie dekady badań nad omawianym zagadnieniem49 wskazuje pięć podstawowych korzyści z nauczania w formacie trójwymiarowym względem tradycyjnego50. Korzyść 1: 3D-VLE mogą być wykorzystywane do wzbogacania zadań w nauczaniu dziedzin wymagających zdolności rozumienia przestrzeni oraz jej reprezentacji. Korzyść 2: 3D VLE mogą być wykorzystywane do wzbogacania 46 multi-wall Cave Automatic VE systems 47 Hedberg J., Alexander S. (1994), Virtual reality in education: defining researchable issues, ”Educational Media International” 31 (4), s. 214–220 48 „(p. 215): such environments have ‘the potential to offer a superior learning experience’ (p. 218): increased ‘immersion’, increased ‘fidelity’ and a higher level of ‘active learner participation’.” 49 Dalgarno B., Lee J.W., What are the learning affordances of 3-D virtual environments?, „British Journal of Educational Technology” 41 (1) 2010, s.10–32 50 tłumaczenie własne „Affordance 1: 3-D VLEs can be used to facilitate learning tasks that lead to the development of enhanced spatial knowledge representation of the explored domain. Affordance 2: 3-D VLEs can be used to facilitate experiential learning tasks that would be impractical or impossible to undertake in the real world.

Affordance 3: 3-D VLEs can be used to facilitate learning tasks that lead to increased intrinsic

motivation and engagement.

Affordance 4. 3-D VLEs can be used to facilitate learning tasks that lead to improved transfer of

knowledge and skills to real situations through contextualisation of learning.

Affordance 5: 3-D VLEs can be used to facilitate tasks that lead to richer and/or more effective

collaborative learning than is possible with 2-D alternatives.”

63



nauczania poprzez doświadczenie w zadaniach, których zilustrowanie eksperymentalne byłoby niepraktyczne lub niemożliwe do wykonania w rzeczywistym świecie. Korzyść 3: 3D VLE mogą być wykorzystywane do wzbogacania nauczania wymagającego zwiększonej motywacji i zaangażowania. Korzyść 4: 3D VLE mogą być wykorzystywane do wzbogacania nauczania mającego na celu przełożenie wiedzy i umiejętności na rzeczywiste sytuacje poprzez kontekstualizację uczenia. Korzyść 5: 3D VLE mogą być wykorzystywane do wzbogacania zadań mających na celu rozwój efektywnej współpracy, których trening byłby niemożliwy do przeprowadzenia w warunkach 2D. Każda z wymienionych korzyści poparta jest serią testów nad eksperymentalnymi programami nauczania z zakresu medycyny, uczenia języków obcych, projektów społecznościowych i pokrewnych im badań uniwersyteckich. Poszczególne badania podkreślają, że głównym czynnikiem zwiększającym efektywność uczenia się w przestrzeni trójwymiarowej jest jej ucieleśniony charakter angażujący, wykraczający poza zwyczajowe mechanizmamy uczenia się, pamięć motoryczną i emocjonalną. Ponadto, badania Neubauera, Bergnera i Schatza nad wyrównywaniem różnic płciowych w umiejętności rotacji mentalnych51

wykazały, że powszechnie udokumentowaną przewagę mężczyzn względem kobiet w zdolnościach matematyczno-przestrzennych (co jest konsekwencją wyższej sprawności w rotacjach mentalnych) można całkowicie wyeliminować poprzez nauczanie matematyki w klasach początkowych za pomocą metod 3D. Zrównanie szans dokonuje się tu właśnie, między innymi, poprzez włączenie u kobiet w embodieid cognition czynnika emocjonalnego. 1.5.1. Różnorodność systemów wspomagających uczenie się W historii i na współczesnym rynku edukacyjnym, można odnaleźć ogromną liczbę metod i urządzeń wspomagających uczenie, poczynając od mnemotechnik wynalezionych już w starożytności, po najnowsze urządzenia rejestrujące aktywność mózgu. Pragnienie zdobycia klucza do szybszego i niezawodnego zdobywania wiedzy jest równie stare jak ona sama. Specjalnie przygotowywane podręczniki

51 Neubauer A.C., Bergner S., Schatz M., Two vs. Tyree-dimentional presentation of mental rotation task: Sex differences and effects of trainning on performance and brain activation, „Intelligence” 38 (2010), s. 529-539

65


fotografia 1


z ćwiczeniami, pomoce naukowe w postaci modeli, makiet, prezentacji a nawet systemy o wciąż wątpliwej skuteczności, typu Sita, mające nauczać poprzez relaksację, cieszą się niesłabnącą popularnością. Rok rocznie, ogólnoświatowy rynek produktów związanych z edukacją przynosi producentom pomocy naukowych miliardowe zyski, bo w dzisiejszych czasach, edukację uważa się za podstawową wartość człowieka, decydującą o jego pozycji społecznej, związanej z wykonywaną pracą. Dorośli konsumenci nie tylko nie skąpią zakupów swoim dzieciom, ale również nieustannie inwestują w siebie, zapisując się na szkolenia i kursy językowe, bo pracownik, który się nie rozwija, szybko przegrywa konkurencję na drapieżnym rynku pracy. Pośród tej różnorodności, w mojej opinii, trudno jednak znaleźć pomoce, których projekt byłby wystarczająco przemyślany i oparty o wiarygodne badania naukowe. Tylko nieliczne podręczniki, głównie amerykańskie, we wstępie zawierają wskazówki co do ich efektywnego użytkowania, a programy mające ułatwiać tworzenie notatek, są niestety częściej bardziej atrakcyjne graficznie niż funkcjonalne. Zazwyczaj więc, mamy do czynienia z produktami, które z pewnością uatrakcyjniają naukę, ale czy na pewno ją wspomagają? 1.5.2. Mnemotechniki Najstarszą formą wspomagania uczenia są techniki mnemoniczne. Można je podzielić na trzy grupy. Oparte na teorii rozpoznawania-generowania, czyli metoda obrazów introaktywnych, słów-wieszaków i loci mnemonic; techniki kategoryzacji oraz metoda mapy-myśli (mind map; według polskiej terminologii – map poznawczych). Pierwsze wymagają opanowania pamięciowego wymyślonej historii, rymowanki lub trasy pod które następnie podczepia się materiał, do opanowania. Techniki te dobrze sprawdzają się, gdy musimy zapamiętać ciągi słów lub liczb w ustalonej kolejności. Techniki kategoryzacji polegają na grupowaniu pojęć, które chcemy zapamiętać w grupy o wspólnym mianowniku i ich hierarchizacji. Dobrze sprawdzają się, gdy trzeba zapamiętać materiał o większej złożoności a nie jest wymagane wydobycie go z pamięci w ustalonym porządku. Trzecią grupą, współcześnie najszerzej stosowaną i badaną przez specjalistów z zakresu metodyki nauczania, jest technika map poznawczych. Metoda ta polega na graficznym przedstawieniu relacji pomiędzy pojęciami, których chcemy się nauczyć, włączając w to grafikę a jeżeli korzystamy przy tym z wyspecjalizowanych programów komputerowych, również nagrania audio i audiowizualne. Według badań Farranda,

67



Hussaina i Hennessy’ego (2006) korzystanie z map poznawczych podnosi poziom odpamiętywania informacji z tekstu do około 15% względem osób korzystających z dowolnie innej mnemotechniki i aż do 40% względem tych, którzy nie stosowali żadnego wspomagania. Ponadto mapy myśli znakomicie sprawdzają się w organizacji słabo zhierarchizowanych informacji i rozwoju projektów kreatywnych (zapis burzy mózgów, syntetyzowanie rozbudowanych baz danych). Mapa poznawcza, ze względu na swoją otwartą budowę, daje możliwość ciągłego jej rozbudowywania i łączenia ze sobą kilku gotowych już egzemplarzy. Głównymi ograniczeniami mapy myśli są problemy jakie wiążą się z nośnikiem, na którym zostaje zbudowana. Jeżeli jest to papier, musimy wziąć pod uwagę na przykład format kartki, jeżeli program komputerowy, metoda wyświetlania i nawigowania, tak by móc mieć wgląd zarówno w szczegóły jak i całość mapy. Zaletą formy komputerowej jest możliwość umieszczania multimediów i automatyczne rozplanowanie przestrzenne kolejnych odgałęzień, ale forma papierowa wciąż pozostaje wersją swobodniejszą i szybszą, dodatkowo angażującą w większym stopniu nasze odniesienie do przestrzeni fizycznej, co ma swoje znaczenie w świetle teorii embodimentu. W moim projekcie, postaram się połączyć najlepsze cechy obu tych form.

69



1.6. Możliwości rozwoju wynikające z postępu techniki

1.6.1. Rozwijane programy e-learningowe 3D w medycynie i matematyce Aktualnie na świecie, prowadzone są równolegle badania nad kilkudziesięcioma programami e-learningowymi wykorzystującymi technologie 3D, w różnych dziedzinach nauki. Co najmniej siedem z nich zostało pozytywnie zaopiniowanych i wprowadzonych do regularnego programu szkolenia z zakresu medycyny, matematyki i nauczania języków obcych na uniwersytetach w USA i Austrii. Ophthalmic Operation Vienna jest już standardowo wykorzystywanym narzędziem do szkolenia przyszłych chirurgów-okulistów na Wiedeńskim Uniwersytecie Medycznym. Za pomocą trójwymiarowego modelu oka generowanego w aplikacji szkoleniowej, studenci mają możliwość wirtualnego przeprowadzenia

zabiegu chirurgicznego, diagnozując i usuwając zmiany patologiczne zaprogramowane przez wykładowcę. Model służy także do przeprowadzania wstępnych symulacji zabiegów na pacjentach z rzadkimi lub skomplikowanymi schorzeniami oczu. Jak wynika z badań prowadzonych przez Prinza, Bolza i Findla (2005)52, u studentów przechodzący interaktywny trening 3D względem

tych uczących się poprzez oglądanie autentycznych nagrań z operacji, stwierdzono egzaminacyjnie o 16% lepszą znajomość topograficzną (u kobiet 19%) oraz 7% lepsze rozumienie teoretyczne zagadnienia. Jeszcze bardziej obiecujące wyniki dostarczają badania Alexandra Keedy’ego z zespołem53 opublikowane w 2011 roku, dotyczące programu nauczania anatomii

narządów wewnętrznych poprzez interaktywny program 3D, gdzie wyniki grupy eksperymentalnej sięgały granicy 74% zwiększenia poprawności względem grupy kontrolnej, uczącej się ze standardowego podręcznika. Genome Island czy The Heart Murmur Sim to kolejne przykłady sukcesów trójwymiarowych programów edukacyjnych pozwalających obserwować skutki mutacji genetycznych (Genome Island) oraz diagnozować choroby serca (THMS). 52 Prinz A., Bolz M., Findl O., Advantage of Tyree dimentional animateg teaching over traditional surgical videos for teaching ophthalmic burgery: a randomised study, „Br J Ophthalmol” 2005/89, s. 14951499 53 Keedy A.W., Durack J.C., Sandhu P., Chen E.M., O’Sullivan P.S., Breiman R.S., Compariorion of Tradicional methods with 3D Copmuter models In the Instruction of Hepatobiliary Anatomy, „Anatomical Sciences Education” 2011/4 (2), s. 84-91

71



Również MDTT, czyli internetowy kurs dla techników sprzętu medycznego, za pomocą którego bez narażania na ogromne koszty pomyłek, technicy i lekarze mogą uczyć się obsługi i konserwacji (czy nawet naprawy) kosztownego wyposażenia najnowocześniejszych sal operacyjnych i diagnostycznych, ze skutecznością równą doświadczeniu na żywym organizmie. Programy wykorzystujące przestrzeń wirtualną stosowane są również w terapii. iSocial, program symulujący sytuacje społeczne, okazał się niezwykle obiecującą metodą terapeutyczną dla osób dotkniętych autyzmem i fobiami społecznymi. We w wpełni kontrolowanych warunkach mogą oni, pod okiem terapeuty, przełamywać bariery i uczyć się funkcjonowania w realnym świecie. Programy nauczania matematyki, jak Construct3D, w którym przy pomocy specjalnej aparatury wizyjnej i manipulacyjnej uczniowie mogą budować i operować na przestrzennych wykresach i przecięciach brył, a także trójwymiarowe programy umożliwiające naoczną rotację brył, w wielu badaniach wykazały znacząco szybsze i skuteczniejsze nauczanie rozumienia i analizy problemów przestrzennych, w szczególności u dziewcząt. Wprowadzenie wizualizacji, zwłaszcza w początkowych fazach nauczania, skutkowało znacznie lepszym rozumieniem innych zagadnień matematycznych, lepszymi wynikami w testach zdolności przestrzennych oraz większym zainteresowaniem zagadnieniami technicznymi u obu płci w późniejszych latach nauki, nawet jeśli w kolejnych etapach stosowane były już tradycyjne metody nauczania. Hipotetycznie, niższe zdolności matematyczno-przestrzenne u większości dziewcząt, wiążą się właśnie z pochłanianiem dodatkowych zasobów poznawczych na wtórne rotacje mentalne, jeżeli podawany materiał na postać dwuwymiarową, podczas gdy u większości chłopców zachodzi ona płynnie. Brak pełnego zrozumienia problemu, czy zniechęcenie w podstawach nauczania matematyki, powoduje mniejsze zainteresowanie i zaangażowanie w zdobywaniu wiedzy z tego zakresu na kolejnych etapach edukacji a tym samym, w wyniku braku treningu, gorszymi wynikam w wieku dojrzałym. Analogiczna sytuacja zachodzi u mężczyzn w zakresie zdolności językowych. Współczesna technologia i odpowiednio skorygowany program nauczania, mógłby całkowicie wyeliminować te zależności a tym samym rozwiązać problem na przykład niedoboru studentów na uczelniach technicznych czy konieczności tworzenia parytetów na kierunkach humanistyczno-filologicznych (jak to się dzieje w krajach skandynawskich).

73


fotografia 2


Opis projektu 2.1. Założenia projektowe Istotą koncepcji produktu jest stworzenie narzędzia dla szeroko rozumianego grona studentów i osób pracujących ze słowem pisanym, pozwalającego na tworzenie wielowymiarowych notatek, planów, być może nawet formy tekstów przyszłości, mających postać sieci hipertekstualnej. Nowa forma tekstu ma odzwierciedlać współczesne, bliższe naszemu naturalnemu rozumieniu języka, odniesieniu treści do przestrzeni i wielowymiarowego pola skojarzeń. Wykaz najważniejszych założeń projektowych zawiera: • Przystosowanie procesu uczenia do prawidłowości funkcjonowania procesów poznawczych. • Poszerzenie doświadczania tekstu poprzez odniesienie do przestrzeni osobistej. • Rozwinięcie metody mind maping, poprzez wprowadzenie w przestrzeń wirtualną i multimedialność. • Połączenie tradycyjnych mediów tekstowych (papier) z cyfrowymi • Łatwość, intuicyjność obsługi • Przeznaczenie głównie do użycia domowego ale również miejsc publicznych związanych z przekazywaniem wiedzy (biblioteki, muzea)

75


rysunek 1


2.2. Ścieżki rozwoju projektu (szkice, pomysły pośrednie, prezentacja możliwych kierunków rozwoju) Proces projektowania metody usprawnienia procesu czytania, co jest myślą przewodnią całej koncepcji, rozpoczęłam od zgłębienia mechanizmów czytania oraz obserwacji czytających osób w naturalnym dla nich otoczeniu. Starałam sie wyszukać kluczowe aspekty problemu (rysunek 1) i na ich podstawie generować możliwe rozwiązania. Pierwsze rysunek 2 pomysły dotyczyły pozycji i otoczenia czytającego. Delikatnie bujający się fotel, który wymuszałby utrzymywanie napięcia mięśniowego zachowując prostą sylwetkę i pobudzając twór siatkowaty mózgu jednocześnie, co zapobiegałoby przechodzeniu w drzemkę (rysunek 2). Seria siedzisk o nietypowych właściwościach strukturalnych i dotykowych (rysunek 3), rysunek 3 czy przenośna mata-schron pozwalająca na natychmiastową izolację w dowolnym miejscu oraz jednocześnie otaczanie się notatkami po wewnętrznej stronie czaszy (rysunek 4). Kolejną grupą były urządzenia działające na zasadzie feedbacku, albo poprzez pomiar i informowanie czytającego o aktualnym stanie jego pobudzenia rysunek 4 (rytm fal mózgowych) i alarmowanie, gdy przechodził on we wstępne fazy zasypiania (rysunek 5), albo odmierzanie optymalnego czasu czytania i odpoczynku (rysunek 6). Drugim etapem było zwrócenie się w kierunku mnemotechnik i metod robienie notatek, gdzie analizowałam metody pracy z mnemotechnikami i pomocami

77


rysunek 20

rysunek 8

rysunek 9

rysunek 10


naukowymi. W ten sposób powstała ścierzka pomysłów zawierająca urządzenia pozwalające na robienie cyfrowych notatek na tradycyjnych książkach (rysunek 7) oraz po włączeniu zalożeń teorii embodimentu, pomysł tworzenia gigantycznych map myśli wyświetlanych na ścianach pomieszczeń (rysunek 8), karteczek oledowych wyświetlających elemntarne hasła (rysunek 9) oraz kombinacji książkowego skanera i odpowiedniej aplikacji pozwalającej automatycznie generować cyfrowe mind maps (rysunek 10). Trzecim etapem projektowania było zwrócenie się ku analizie kształtu otaczającej człowieka przestrzeni rysunek 5 i możliwości jej geometrcznego formowania. Ważną inspiracją na tym etapie projektowania były różnice relacji przestrzennych zachodezących w bryłach platońskich i wielościanach nieforemnych (rysunek 11). Ostateczna propozycja rozwiązania problemu optymalizacji procesów związanych z czytaniem, również formowała się w etapach. Starałam się wyróżnić kolejne fazy przechodzenia od rozmieszczaenia informacji semantycznych w przestrzeni fizycznej poprzez przejście w przestrzeń hybrydową aż po zupełne wyjście w przestrzeń wirtualną (rysunek 12).

rysunek 6

rysunek 7

79


rysunek 11


PRZESTRZEŃ FIZYCZNA

rysunek 12

PRZESTRZEŃ HYBRYDOWA

PRZESTRZEŃ WIRTUALNA

81


diagram 5

działania wstępne włącz urządzenie i synchronizuj z jednostką centralną z dostepem do internetu

inicjacja nowa PMM

wczytaj PMM z zasobów

konfiguracja tagów wybierz/dodaj nowe

wczytaj/dodaj nowe

tekst wczytaj obiekt

skanuj tekst

wprowadzanie jednostki umieść dotykowo piórkiem

umieść wirtualnie przez menu

tagowanie otaguj obiekt

ustal położenie

nadaj relację

zapis zapisz PMM

eksportuj PMM

wyświetlanie ekran

wyświetl T2TC

filtruj dane

rozmieść automatycznie


2.3. Proces użytkowy Posługiwanie się Text to Space Creator’em można opisać w kilku etapach (diagram 5). Pierwszym jest wybór otoczenia, w którym chcemy pracować, i wstępna konfiguracja tabletu, w tym połączenie go z komputerem osobistym. Kolejny to wybór i skanowanie słowa lub frazy z materiału tekstowego, jakim dysponujemy (książka, dokument. pdf itp.) za pomocą piórka skanującego (poprzez taflę oledowego tabletu), i przeniesienie go gestem w przestrzeń. Alternatywnie wprowadzenie słów lub obrazów na tablet poprzez wirtualną klawiaturę lub za pomocą pisma/ rysunku odręcznego, a następnie przeniesienie w przestrzeń wirtualną PMM za pomocą piórka. Trzecim etapem jest łączenie, kojarzenie ze sobą naniesionych jednostek obiektowych54 w mapę o hierarchicznej strukturze lub zdecentralizowaną sieć. Etap czwarty to aktywna praca z powstałą mapą. Użytkownik ma możliwość edycji, zapisywania mapy w postaci trójwymiarowych modeli cyfrowych i dzielenia się własnymi tworami z innymi, poprzez Sieć Internetową. Może także odtwarzać mapy, również te przygotowane przez innych, zarówno dwu jak i trójwymiarowe i łączyć je ze swoimi projektami. W ramach interakcji z mapą, możliwe jest jej przeszukiwanie poprzez wybrane filtry, przechodzenie do zasobów internetowych poprzez jednostki obiektowe a także zmiana perspektywy z jakiej jest oglądana. Poniżej, na przykładzie wybranego tekstu z podręcznika, będzie można dokładniej przyjrzeć się pełnemu procesowi mapowania tekstu do formatu Przestrzennych Map Myśli.

54 Poprzez jednostkę obiektową rozumiem słowo, fragment tekstu, obraz lub nagranie multimedialne.

83


rysunek 13


2.4. Opis pełnego cyklu użytkowania na przykładzie wybranego tekstu Do zaprezentowania schematu działania systemu wykorzystałam fragment popularnego podręcznika akademickiego autorstwa Ryszarda Tadeusiewicza. Zakładam, że praca z tym tekstem ma na celu zrozumienie i zapamiętanie jak największej ilości istotnych informacji (a więc również konieczna jest selekcja informacji). Pierwszą czynnością jest znalezienie przez czytelnika odpowiadającego mu otoczenia do czytania. Załóżmy, źe udajemy się do biblioteki i zajmujemy przytulny kąt pomieszczenia. Następnie należy włączyć urządzenie poprzez wysunięcie piórka ze stacji dokującej (rysunek 13). Na ekranie tabletu pojawi się komunikat dotyczący uruchomienia łącza bluetooth w poszukiwaniu połaczenia z naszym komputerem osobistym, a za jego pośrednictwem, z Internetem. Interface urządzenia od strony graficznej opiera się na animowanej triadzie buttonów, które reagują obrotem w lewą lub prawą stronę w odpowiedzi na ruch kursora. Po kliknięciu w obszar button’u rozwija się menu konfiguracji (rysunek 14). Należy skonfigurować tagi, poprzez utworzenie odpowiadających nam etykiet kategorii na jakie będziemy chcieli zwrócić szczególną uwagę, oraz zdecydować się na tworzenie nowej mapy lub wczytanie jakiejś już istniejącej w zasobach naszego dysku albo Sieci. 2.4.1. Metoda tagowania tekstu drukowanego lub cyfrowego za pomocą urządzenia skanującego Tym razem, tekst którym będziemy się zajmować dostaliśmy w formie papierowej. Przykładamy więc, giętką taflę tabletu, tak by ściśle przypasowała się do krzywizny książki. Gdyby tekst był w formie cyfrowej, wystarczyłoby wczytać go na taflę. W tym momencie gotowi jesteśmy do pracy. Czytając tekst, wybieramy interesujące nas słowa lub fragmenty i skanujemy je za pomocą piórka, przejeżdząjąc nim płasko po powierzchni tabletu. W miejscu zetknięcia piórka i tafli (po naciśnięciu kciukiem wewnętrznie usytuowanego względem nas przycisku, co jest sygnałem do skanowania tekstu) pojawia się poświata imitująca ślad zakreślacza biurowego. Po zakończeniu skanowania, obok wyróżnionego fragmentu, pojawia się menu podręczne pozwalające między innymi otagować zaznaczenie (rysunek 17 ). Po

85


rysunek 14


rysunek 17

87


rysunek 15

rysunek 16


dodaniu tagu, poświata wyświetla się w kolorze przypisanym dla danej etykietki. Nasz przykładowy tekst, po analizie najistotniejszych treści, mógłby wyglądać tak jak na rysunku 16. 2.4.2. Przekształcanie opracowania tekstu w formę przestrzennych map myśli – przenoszenie na struktury ekranów Każdorazowo po zaznaczeniu, lub dopiero po otagowaniu całej strony, możemy zamieniać skanowane fragmenty na jednostki obiektowe, poprzez przeniesienie ich w otaczającą nas przestrzeń. W tym celu kierujemy piórko na wyróżniony fragment i dotykając tafli naciskamy klawisz znajdujący się pod palcem wskazującym (zewnętrzny wobec nas) a następnie przytrzymując klawisz kierujemy piórko w dowolne miejsce w przestrzeni. Po zwolnieniu klawisza, znaczniki przestrzenne znajdujące się w końcówkach piórka wysyłają sygnał do jednostki centralnej i na wirtualnej powłoce pojawia się tekst. Jest on dla nas niewidoczny gołym okiem, ale możemy śledzić jego pozycję na ekranie komputera lub zakładając sprzęzone z aplikacją okulary wyświetlające, które ujawniać będą jednostki obiektowe znajdujące się w naszym polu widzenia. Za pomocą dotykowego scrolla pokrywającego wierzchnią część piórka, ustalamy odległość obiektu od nas w wirtualnej przestrzeni. Po umieszczeniu więcej niż jednej jednostki obiektowej w menu aktywuje się opcja nadawania relacji. Po jej zaznaczeniu, wybieramy inną jednostkę i przez wskazanie i pojedyncze kliknięcie, ustanawiamy relację. Powtarzając te czynności wielokrotnie możemy zbudować skomplikowaną i wyczerpującą temat przestrzenną notatkę, w skład której, poza tekstem (skanowanym lub wprowadzonym klawiaturą) wchodzić może również obraz wczytany z dysku (lub z Sieci) przez menu podręczne, rysunek odręczny albo multimedia (metoda wprowadzania jak przy obrazach). 2.4.3. Metody pracy z mapami, możliwości ingerencji użytkownika Kiedy uznamy, że nasza PMM jest kompletna, możemy ją zapisać na dysku komputera, po pierwsze w postaci PMM, ale również jako bitmapę o rozszerzeniu *.jpg (zgodnie z widokiem na ekranie) lub w postaci molekuły (rysunek 19), czyli obiektu 3D. Raz zapisaną mapę, możemy dowolnie edytować oraz dzielić się z innymi. Program umożliwia również filtrowanie obrazu struktury przez wygaszanie i ujawnianie żądanych tagów. Skonstruowana przez nas molekuła ma swój charakterystyczny kształt wynikający z naszych osobistych preferencji

89


rysunek 18


przestrzennych. Nadane przez nas relacje odwzorowują subiektywną odległość treści względem siebie. Chcąc upewnić się, czy skomplikowanej struktury wiedzy, jaką utworzyliśmy, nie dałoby się uprościć, możemy uruchomić funkcję automatycznego przekształcenia geometrycznego, które rozmieści nasze jednostki obiektowe na siatce możliwie foremnej bryły, zachowując a być może nawet ujawniając nieoczekiwane relacje pomiędzy nimi (rysunek 21). W opracowywanym tekście pojawić sie mogą także tzw. „trudne słowa”, albo zdania w języku obcym. Text to Space Creator umożliwia rozszerzenie treści jednostki o kolejne rozgałęzienia przez przeszukiwanie stron internetowych pod kontem hasła będącego jednostką obiektową. rysunek 19

rysunek 21

91



2.5. Forma – uzasadnienie pragmatyczne W wersji ostatecznej, zestaw Text to Space Creator’a składa się z oledowego tabletu, piórka skanującego i opcjonalnie okularów trójwymiarowych zintegrowanych z programem. Piórko Podstawowe założenia projektowe: • drobny podłużny kształt przypominający pióro, ze względu na umieszczenie znaczników przestrzennych • dwa klawisze funkcyjne • scroll • zasilanie indukcyjne osadzone w tablecie • komunikacja z tabletem za pomocą bluetooth • końcówka skanująca i końcówka rysująca • styl obiektu skierowany do grupy konsumenckiej studentów Przegląd skanerów, piórek i podobnych urządeń, obecnych na rynku:

fotografia 3

93


rysunek 22


Propozycje projektowe dla skanera Text to Space Creator:

rysunek 23

95


rysunek 24

Projekt finalny:


Tablet Podstawowe założenia projektowe: • giętki, przylegający do strony • rozmiar A4 • dok dla piórka - zasilanie indukcyjne piórka • wejście USB do zasilania baterii i łaczności z komputerem • łącze bluetooth • prostota i poręczność Urządzenia tego typu dostępne na rynku: fotografia 4

Propozycje projektowe dla tabletu Text to Space Creator rysunek 25

97


Projekt finalny rysunek 26

rysunek 27


okulary 3D Urządzenie może pracować w dwóch wariantach. Pierwszy to nawigacja w PMM za pomocą tradycyjnego ekranu, drugi to wykorzystanie dostępnych na rynku urządzeń imitujących obraz 3D. Stereoskopowe gogle, tzw. ekrany 3D czy w końcu chełmy i okulary do systemów VR. Poniżej przedstawiam przykłady produktów dostępnych na rynku: fotografia 5

99



2.6. Wykorzystane technologie Koncepcja produktu od strony materiałowej opiera się na technologii OLED, pozwalającej nadrukowywać powierzchnie wyświetlające obraz cyfrowy na elastyczne i transparentne materiały, jak również optycznym skanowaniu tekstu , jaki standardowo używany jest w skanerach ręcznych. Łączność bezprzewodową pomiędzy urządzeniami zapewniać mogą porty bluetooth a nawigację wewnętrzną technologia ekranów dotykowych. Łączenie z zasobami WWW odbywać się może za pośrednictwem podłączonych urządzeń elektronicznych w rodzaju komputera osobistego, smart phone czy tabletu. Urządzenie zasilane będzie elektrycznie, bezpośrednio z sieci elektrycznej lub akumulatorowo. Piórko zasilane jest indukcyjnie. Od strony programistycznej, funkcjonowanie urządzenia oparte będzie na autorskiej aplikacji współpracującej z systemami operacyjnymi typu Windows, OS Mac oraz Linuks, Android, a także standardowymi przeglądarkami internetowymi. Ze względu na koncepcyjny charakter projektu, są to jedynie proponowane przez mnie rozwiązania technologiczne, wykorzystujące dostępne na rynku narzędzia.

101



2.7. Spektrum możliwości wykorzystania urządzenia

2.7.1. Dla kogo? Urządzenie przeznaczone jest dla wszystkich osób pracujących z tekstami, zarówno naukowymi, popularno naukowymi czy edukacyjnymi, jak i prozą, beletrystyką oraz poezją. Ma być pomocą dla uczniów, studentów i wykładowców, innymi słowy twórców i odbiorców treści edukacyjnych. Może być wykorzystywane przez szkoleniowców i twórców zasobów internetowych na równi z autorami prozy, poezji i dramatu. Ci ostatni w innowacyjnej konstrukcji i prezentacji tekstu mogą odnaleźć nowe środki ekspresji artystycznej i rozszerzyć pole oddziaływania na odbiorcę, poprzez programowanie stymulacji emocjonalnej, pozostawiającej jednocześnie ciągle duży margines osobistej interpretacji. Przykładem prądu kierującego nas w stronę tego rodzaju innowacyjnego rozumienia kompilacji tekstu i przestrzeni jest poezja cybernetyczna, więziona jednak wciąż przez ograniczenia sprzętowe. Przykładem tego rodzaju video poezji jest twórczość Katarzyny Giełżyńskiej (Klikam - utwór nagrodzony przez korporację ha!art w cyklicznym konkursie Internetowego Turnieju Jednego Wiersza http://vimeo.com/15657793#). Koncept prezentowany w tej pracy mógłby znakomicie zaspokoić potrzeby nowych gałęzi sztuki tego typu. Podkreślić jednak należy, że Text to Space Creator, został stworzony przede wszystkim z myślą o wspomaganiu uczenia się. 2.7.2. Gdzie? Text to Space Creator jest zaprojektowany z myślą o użytku we wnętrzach. W założeniu stanowić ma wyposażenie osobistej przestrzeni o charakterze bibliofilskim. Znakomicie sprawdzi się w pokoju ucznia czy studenta a także w domowej biblioteczce. Z urządzenia może korzystać więcej niż jedna osoba, znalazłoby więc, zastosowanie w miejscach użyteczności publicznej jak domy studenckie i biblioteki. Może być narzędziem pracy redaktorów i artystów webowych. Projekty stworzone w TtSC ze względu na pełną możliwość eksportu do standardowych rozszerzeń plików cyfrowych typu JPG czy PDF, mogą być eksponowane w większych przestrzeniach (miejskich, konferencyjnych) za pomocą projektorów cyfrowych.

103



2.7.3. Do czego służy? Przede wszystkim produkt służy do przeprowadzania analizy i syntezy informacji, pozyskanych z tekstu o klasycznej formie linearnej, ale również budowania baz wiedzy przy wykorzystaniu wielu zróżnicowanych źródeł, w tym multimediów i zasobów Sieci. Cyfrowa forma i łatwość przenoszenia danych tekstowych (również multimedialnych) sprzyja płynnemu i wygodnemu tworzeniu notatek, materiałów do pisania prac naukowych i tekstów prozatorskich. Szczególną zaletą urządzenia jest wspomaganie samego procesu uczenia się poprzez wprowadzenie do ww. procesu elementów embodied cognition, podnoszącego w znaczącym stopniu zdolność skutecznego odpamiętania opracowywanego materiału55. Jak

wynika z przeprowadzonych przeze mnie badan pilotażowych56, zastosowanie metody mapowania tekstu i PMM może polepszyć poziom opanowania materiału semantycznego nawet o 30%, przy jednakowym czasie ekspozycji treści. Ponad to urządzenie otwiera szereg innowacyjnych możliwości kreowania tekstu i połączenia tekstu z multimediami, o których wspominałam w poprzednich akapitach, ze szczególną dedykacją dla poezji cybernetycznej. Poruszanie się w zwielokrotnionych płaszczyznach tekstu, podążając ścieżką wyznaczoną przez autora, lub samodzielnie eksplorując gąszcz treści, w dużym stopniu nawiązuje do panującego paradygmatu czytania linkującego. Możliwość automatycznego odsiewu informacji i graficzne przedstawienie zależności pomiędzy poszczególnymi częściami/hasłami, da nam przejrzysty ogląd struktury i łatwość przeszukiwania treści, co stanowi najczęściej poszukiwaną wartość tekstu wśród współczesnych czytelników nastawionych na informacyjny charakter zdobywania wiedzy.

55 Przewidywania na podstawie badań nad wydajnością uczenia się w formie 2D a 3D, oraz badań nad wpływem ucieleśnionego poznania, omawianych w części teoretycznej tej pracy. 56 Badanie przeprowadzono na grupie 20 studentów z kierunków technicznych i humanistycznych, w warunkach standaryzowanych. Badani mieli za zadanie zapoznać się z tekstem dotyczącym funkcjonowania układu nerwowego człowieka w czasie 20 minut, a następnie, najpierw po 10 minutach a później, po 24h przerwie odpowiedzieć na pytania dotyczące jego treści. Grupa eksperymentalna przed zapoznaniem się z tekstem została pouczona o konieczności zastosowania metody mapowania tekstu i tworzenia PMM oraz mogła je imitować w specjalnie przygotowanej przestrzeni. Grupa kontrolna mogła korzystać z technik mnemonicznych, takich jak mapy myśli oraz wykonywanie tradycyjnych notatek. Poprawność i szczegółowość odpowiedzi grupy eksperymentalnej znacznie przewyższała wyniki testu grupy kontrolnej, szczególnie w sytuacji opamiętania po dystrakcji 24h. Różnica statystyczna zliczana była na podstawie proporcji ilości poprawnych informacji zawartych w odpowiedziach, pomiędzy grupą eksperymentalną a kontrolną.

105


Dokumentacja


107


Bibliografia Książki Anderson J.R., Uczenie się i pamięć.Integracja zagadnień, WSiP, Warszawa 1998 Benjamin W., Dzieło sztuki w dobie reprodukcji technicznej, [w:] Benjamin W., Anioł historii. Eseje, szkice, fragmenty, Wyd. Poznańskie, Poznań 1996 Borecka I., Biblioterapia. Skrypt dla studentów pedagogiki, Wałbrzych 2001 Brzezińska A., Burtowy M., przedszkolnej, Poznań 1985

Psychopedagogiczne

problemy

edukacji

Brześkiewicz Z. W., Superumysł, Comes, Warszawa 1997 Dawkins R., The Selfish Gene (30th Anniversary edition), Oxford University Press, Oxford 2006 Dunin J., Pismo zmienia świat, PWN, Warszawa 1998 Dworczyk W., Ludzie australijskiego buszu, wyd. Czytelnik, Warszawa 1989 Ferguson G. A., Takane Y., Analiza statystyczna w psychologii i pedagogice, PWN, Warszawa 2009 Gadamer H.G., Prawda i metoda, PWN, Warszawa 2007 Ingarden R., O dziele literackim, PWN, Warszawa 1960 Kalat J. W., Biologiczne podstawy psychologii, PWN, Warszawa 2010 Historia filozofii, red. Ch. Delius i inni, Koenemann, Koeln 2000 Hornung E., Jeden czy wielu: koncepcja boga w starożytnym Egipcie, KiW, Warszawa 1991 Jagodzińska M., Obraz w procesach poznania i uczenia się. Specyfika informacyjna, operacyjna i mnemiczna, WSiP, Warszawa 1991 Jaśkowski P., Neuronauka poznawcza. Jak mózg tworzy umysł, wyd. Vizja Press&IT, Warszawa 2009 Malmquist E., Nauka czytania w szkole podstawowej, Warszawa 1982 Mystkowkska H., Uczymy czytać w przedszkolu, Warszawa 1977 Negroponte N., Being Digital, Knopff., New York 1999 Nęcka E., Orzechowski J., Szymura B., Psychologia poznawcza, PWN, Warszawa


2008 Okoń W., Nowy Słownik pedagogiczny, Warszawa 2001 Ong W.J., Oralność i piśmienność: słowo poddane technologii, Wyd. KUL, Lublin 1992 Platon, Fajdros, wyd. Antyk, 2002 Popper K.R., Mit schematu pojęciowego. W obronie nauki i racjonalności, Książka i Wiedza, Warszawa 1997, Przekł. Bohdan Chwedeńczuk Psycholingwistyka, red. J. Berko Gleason, N. Berstein Ratner, GWP, Gdańsk 2005 Psychologia rozwoju człowieka, t. I red. M. Przetacznik-Gierkowska, M. Tyszkowa, PWN, Warszawa 2009 Psychologia rozwoju człowieka, t. II, III red. B. Hawras-Napierała, J. Trempała, PWN, Warszawa 2009 Styczek I., Logopedia, PWN, Warszawa, 1979 Tadeusiewicz R, Rowiński T., Informatyka i psychologia w społeczeństwie informacyjnym, Wyd. AGH, Kraków 2011 Tinker M., Podstawy efektywnego czytania, Warszawa 1980 Tuman M., Word Perfect: Literacy in the Computer Age, Pittsburgh University Press, Pittsburgh 1992 Typologia i funkcjonowanie obrazu świata w umyśle człowieka, red. A. Gurycka, Wyd. Fundacji Humaniora, Poznań 1996 Walsh K., Darby D., Neuropsychologia kliniczna Walsha, GWP, Gdańsk 2008 Winterson J., O sztuce. Eseje o ekstazie i zuchwalstwie, Rebis, Poznań 2001 Wojciszke B., Psychologia społeczna, wyd. Naukowe Scholar, Warszawa 2011 Zborowski J., Początkowa nauka czytania, Warszawa 1959 Czasopisma i badania Balcetis E., Dunning D. (2007), Cognitive dissonance and the perceptron of natural environments, „Psychological Science” 18 (10), s. 917-921 Bieńkowska-Lesiak A., Psychofizjologiczne i rozwojowe uwarunkowania czynności czytania, „Kultura i historia” nr 4/2003, Instytut Kulturoznawstwa UMCS, Lublin 2003 Dalgarno B., Lee J.W., What are the learning affordances of 3-D virtual environments?, „British Journal of Educational Technology” 41 (1) 2010, s.10–32

109


Galantucci B., Fowler C.A., Turvey M.T. (2006), The motor theory of speech perception reviewed., „Psychonomic Bulletin & Review” 13 (3), s. 361-377 Glenberg A., Havas D., Becker R., & Rinck M., Grounding language In body states: the case of emotion, 2010 Hedberg J., Alexander S. (1994), Virtual reality in education: defining researchable issues,”Educational Media International” 31 (4), s. 214–220 Keedy A.W., Durack J.C., Sandhu P., Chen E.M., O’Sullivan P.S., Breiman R.S., Compariorion of Tradicional methods with 3D Copmuter models In the Instruction of Hepatobiliary Anatomy, „Anatomical Sciences Education” 2011/4 (2), s. 8491 Liberman A.M., Cooper F.S., Shankweiler D.P., Studdert-Kennedy M., (1967) Perception of the speech code, „Psychological review” 74 (6), s.431-61 Liberman A.M., Mattingly I.G. (1985), The motor theory of speech perceptron revised, „Cognition” 21 (1), s. 1-36 Liberman A.M., Mattingly I.G. (1989), A specialization for speech perceptron, „Science” 243 (4890), s. 489-494 Liberman A.M., Whalen D.H. (2000), On the relation of speech to language, „Trends In cognitive sciences” 4 (5), s. 187-196 Neczaj-Świderska R., Uczenie się jako jedno z życiowych wyzwań współczesnego człowieka, „E-mentor, dwumiesięcznik Szkoły Głównej Handlowej w Warszawie” nr 5 (7)/2004 Neubauer A.C., Bergner S., Schatz M., Two vs. Tyree-dimentional presentation of mental rotation task: Sex differences and effects of trainning on performance and brain activation, „Intelligence” 38 (2010), s. 529-539 Piszczek K., Czytelnictwo przyszłości.,"Bibliotekarz Zachodnio-Pomorski" nr ¾, 1988, s.22-29 Prinz A., Bolz M., Findl O., Advantage of Tyree dimentional animateg teaching over traditional surgical videos for teaching ophthalmic burgery: a randomised study, „Br J Ophthalmol” 2005/89, s. 1495-1499 Scott C.L., Harris R.J., Rothe A.R. (2001) Embodied cognition through improvisation improves memory for dramatic monologue, „Discurse Process” 31 (3), s. 293305 Vacharkulksemsuk T., Fredrickson B. L. (2011), Strangers In sync: achieving embodied rapport through shared movements, „Journal of Experimental Social Psychology” 48 (1), s. 399-402


Van Dantzig,S., Zeelenberg R., Pecher D. (2009), Unconstraining theories of embodied cognition, „Journal of Experimental Social Psychology” 45 (2), s. 345351 Materiały z Internetu Sieńka M., Internet jako przedmiot filozofii kultury, protokół dostępu: http://simon.hell.pl/cwp/cwp04.html 04 kwietnia 2012

111


Spis ilustracji ilustracje autorskie diagram 1

32

diagram 2

32

diagram 3 (schemat na podstawiePsycholingwistyka, red. J. Berko Gleason,

N. Berstein Ratner, GWP, Gdańsk 2005)

34

diagram 4 (schemat na podstawie Psycholingwistyka, red. J. Berko Gleason,

N. Berstein Ratner, GWP, Gdańsk 2005)

38

diagram 5

82

fotografia 1

66

fotografia 2

74

fotografia 3 (źródło internetowe)

93

fotografia 4 (źródło internetowe)

97

fotografia 5 (źródło internetowe)

99

rysunek 1

76

rysunek 2

77

rysunek 3

77

rysunek 4

77

rysunek 5

79

rysunek 6

79

rysunek 7

79

rysunek 8

78

rysunek 9

78

rysunek 10

78

rysunek 11

80

rysunek 12

81

rysunek 13

84

rysunek 14

86


rysunek 15

88

rysunek 16

88

rysunek 17

87

rysunek 18

90

rysunek 19

91

rysunek 20

78

rysunek 21

91

rysunek 22

94

rysunek 23

95

rysunek 24

96

rysunek 26

98

rysunek 27

98

rysunek 25

97

113


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.