2 minute read

În mod ironic, deși Weizenbaum proiectase

ELIZA pentru a demonstra cât de superficială este starea conversației dintre oameni și mașini, acesta a avut efectul opus. Oamenii erau vrăjiți, angajându-se în conversații lungi, profunde și private cu un program care era capabil doar să le reflecte cuvintele utilizatorilor. Weizenbaum a fost atât de deranjat de reacția publicului încât și-a petrecut restul vieții avertizând împotriva pericolelor de a lăsa computerele - și, prin extensie, domeniul inteligenței artificiale pe care a contribuit la lansarea sa - să joace un rol prea mare în societate.

ELIZA și-a construit răspunsurile în jurul unui singur cuvânt cheie de la utilizatori, ceea ce a făcut ca oglinda să fie destul de mică. Roboții de chat de astăzi reflectă tendințele noastre extrase din miliarde de cuvinte. Bing ar putea fi cea mai mare oglindă pe care omenirea a construit-o vreodată, iar noi suntem pe punctul de a instala peste tot o astfel de tehnologie de inteligență artificială generativă.

Advertisement

Preocupările lui Weizenbaum, devin din ce în ce mai relevante cu fiecare nouă versiune.Dacăunsimpluprogramacademic din anii '60 a putut afecta oamenii atât de puternic, cum ne va schimba relația noastră tot mai intensă cu inteligențele artificiale exploatate pentru profit? Sunt mulți bani de făcut din ingineria inteligenței artificiale care joacă un rol activ în folosirea comportamentelor noastre spre o mai mare predictibilitate. Acestea sunt oglinzi cu două sensuri. Riscul, așa cum a văzut Weizenbaum, este că, fără înțelepciune și deliberare, am putea să ne pierdem în propria noastră reflexie distorsionată.

Weizenbaum nu credea că vreo mașină ar putea vreodată să imite cu adevărat - și cu atât mai puțin să înțeleagă - conversația umană. "Există aspecte ale vieții umane pe care un computer nu le poate înțelege - nu poate", a declarat Weizenbaum pentru New York Times în 1977. "Este necesar să fii o ființăumană. Iubirea și singurătatea au de-a face cu cele mai profunde consecințe ale constituției noastre biologice. Acest tip de înțelegere este, în principiu, imposibil pentru computer".

De aceea, ideea de a modela ELIZA după modelul unui psihoterapeut Rogerian a fost atât de atrăgătoare - programul ar putea purta pur și simplu o conversație punând întrebări care nu necesită un fond profund de cunoștințe contextuale sau o familiaritate cu dragostea și singurătatea.

Numită după psihologul american Carl Rogers, psihoterapia Rogeriană (sau "centrată pe persoană") a fost construită în jurul ascultării și reformulării a ceea ce spune un client, mai degrabă decât oferirea de interpretări sau sfaturi. "Poate că, dacă m-aș fi gândit la asta cu 10 minute mai mult", scria Weizenbaum în 1984, "aș fi ajuns la rolul unui barman".

PentruacomunicacuELIZA,oameniitastau lao mașinădescriselectricăcare transmitea textul lor către program, care era găzduit pe un sistem MIT. ELIZA scana ceea ce primea pentru a găsi cuvinte cheie pe care le putea întoarce într-o întrebare. De exemplu, dacă textul dvs. conținea cuvântul "mama", ELIZA ar putea răspunde: "Ce părere aveți despre mama dvs.?". Dacă nu găsește niciun cuvânt cheie, va reveni la o simplă întrebare, detipul"Spune-mimaimulte",pânăcândva primi un cuvânt cheie în jurul căruia să poată construi o întrebare.

Sydney ne-a arătat mai mult din noi înșine decât ne este permis.

Dacă ELIZA a fost atât de superficială, de c e a fost atât de relativă? Deoarece răspunsurile sale au fost construite din

This article is from: