
5 minute read
No kokeillaan sitten sitä tekoälyä
Tekoäly, koneoppiminen, kielimalli, neuroverkko. Uusia sanoja on ilmaantunut maailmaamme, ja uudet asiat ovat omiaan herättämään innostusta ja haaveita, mutta myös torjuntaa, pelkoa ja epävarmuutta. Syrjäyttääkö tekoäly ihmiset työelämässä, tieteessä, taiteessa ja jopa ihmissuhteissa? Pahojen aavistusten hiipiessä mieleen niiden torjuntaan käytetään usein defenssejä, jotka ovat lopulta haitaksi. Kristitty saattaa vetäytyä kuoreensa sillä tavalla, että ajattelee omien pinttyneiden tapojensa ja raamatuntulkintojensa olevan totuus maailmasta ja löytää Jumalan sanasta kohtia, joiden mukaan muutos on kapinaa Jumalaa vastaan.
Maailma muuttuu nyt nopeammin kuin koskaan aiemmin: me 60-luvulla syntyneet olemme eläneet ajassa, jolloin jokainen muisti liudan puhelinnumeroita ja palkka maksettiin tilipussissa. Olemme sittemmin opetelleet tietokoneiden ja kännyköiden käytön ja nyt meidän pitäisi vielä ymmärtää älykkäiltä vaikuttavia algoritmejakin. Ei ole ihme, jos defenssit ja ihan vain arkinen laiskuus menevät päälle ja syntyy asenne, että tuohon en ainakaan ryhdy. Ajattelen kuitenkin, että niin kauan kuin ollaan ajassa ja nykyisessä maailmassa, eletään sen säännöt ja tavat ymmärtäen, mutta ei sokeasti niihin suostuen. Mitä se sitten käytännössä tarkoittaa, on usein herkkää tasapainoilua.
Tällä alustuksella kielimalliin perustuvaa algoritmia käyttämään. Siis Open AI:n ChatGPT:tä.
Sanalaskujen 26. luvun 5. jae toteaa hieman arvoituksellisesti: ”Vastaa tyhmälle hänen tyhmyytensä mukaan, ettei hän kuvittelisi olevansa viisas.” Kun törmää tekoälykeskustelun kommentteihin, joskus tuntuu, että ChatGPT ei ainakaan toimi tämän mukaisesti. Se usein vastaa sellaisiin kysymyksiin, joihin se oikeastaan ei sovellu vastaamaan, juuri sillä tavalla, että ihminen joka haluaa osoittaa sen olevan täysin käyttökelvoton, myös saa ennakkoluuloaan tukevan vastauksen. Tämä ei ymmärtääkseni johdu ChatGPT:n pirullisuudesta, vaan yksinkertaisesti siitä, että tämä tekoälyksikin kutsuttu asia ei oikeastaan ole mikään ”äly”, vaan:
”It’s essentially predicting the most likely next words based on patterns it has learned from its training data.”
Tämä lause, jonka kopioin ChatGPT:n vastauksesta kysymykseeni, miten se muodostaa vastauksen, on aika hyvä vastaus. On turha kysyä, ketkä ovat merkittävimmät aivotutkijat. Vastaukseksi saa sattumanvaraisen nimiluettelon. Sen sijaan kysymykseen: ”Does secondary somatosensory cortex process ipsilateral information?” saa aivan kelpo vastauksen.
Tietotekniikkaan liittyvä tietämykseni on liian pinnallista, jotta voisin kunnolla ymmärtää, miten GPT-3.5-algoritmi, jolla ChatGPT:n vastaukset syntyvät, toimii. Koska koko tekoälykeskustelu on täynnä hämäriä käsitteitä, yritän määritellä sanan algoritmi. Se tarkoittaa ohjetta tai toimintasuunnitelmaa. Esimerkiksi leivontaohje on algoritmi, ainakin melkein. Algoritmin määritelmä pitänee sisällään sen, että ohjetta myös noudatetaan ja se on yksiselitteinen ohjeen noudattajalle. ChatGPT:n vastaukset kysymykseen vaihtelevat riippuen siitä, millainen keskustelu kysymystä edeltää. Itse algoritmi, jonka perusteella vastaus muodostuu, ei tässä prosessissa muutu, vaan sen muuttaminen on aivan tavallista insinöörityötä. Näin ainakin ChatGPT itse sanoo.
Vakiintunutta puhetapaa tietotekniikkaan liittyvistä uusista asioista ei ole. Se varmasti syntyy vähitellen, ja me kaikki keskusteluun osallistujat vaikutamme muodostuviin käytäntöihin. Itse haluan välttää kaikenlaista mystifiointia ja liioittelua ja tässä hyvät termit ovat tärkeitä. Kielimalli on neutraali sana, samoin algoritmi, mutta koneoppimisen tilalle toivoisin muuta. Oppiminen viittaa liikaa ymmärrykseen, ja se, että koneoppimisessa ei ole kyse siitä, saattaa hämärtyä.
Tekoäly on myös huono sana. Pidän sanasta hakukone. Siitä huolimatta, että ChatGPT:n kohdalla termi julistetaan helposti pannaan. ChatGPT ei tietysti ole hakukone siinä mielessä, että se tekisi puolestani laajan internet-haun, pikalukisi tekstit, sitten pika-analysoisi sisällöt ja muodostaisi vastauksen. Kielimalliin perustuvana se ainoastaan muodostaa käyttämieni sanojen ja niihin liittyvän kieliopin ym seikkojen perusteella tekstin, jonka perusteella minä saan vaikutelman edellä kuvatun kaltaisesta hakutapahtumasta. Siis jos vastaus on onnistunut. Toisinaan taas syntyy vaikutelma, että algoritmi on mennyt epäkuntoon.
Googlaamalla löysin erään yrityksen sivun, jossa hahmotellaan koneoppimisen ja tietomallien maailmaa https:// www.devisioona.fi/2023/03/kielimalleihin-pohjautuva-tekoaly-avaa-tuottavuusjuoksun/ . Lukemalla tekstin saa varsin hyvää käsitystä siitä, mihin suuntaan (ainakin) koneoppimisen avulla tapahtuvassa tietomassojen käsittelyssä ollaan menossa. Ilman suuria harhaan menemisen riskejä kielimalliin perustuvista algoritmeista voidaan odottaa apua ainakin oman tekstin jatkojalostamiseen :
” …kun jatkossa esim. Wordin voi pyytää täydentämään tarinaa tai Outlookin vaihtamaan viestin tyylilajia, tietotyö yksinkertaistuu ihmisaivojen keskittyessä enemmän tavoitteisiin ja vähemmän tekniikkaan.”
Jos sen sijaan käyttääkin kielimallia hakukoneena, tarvitaan kritiikkiä. Tein kokeilun, jossa esitin ChatGPT:lle omaan erikoisalaani (gastrokirurgia) liittyviä hiukan kiperiä kysymyksiä. Siis sellaisia, joihin ei ole yksiselitteistä vastausta. Algoritmi suoriutui varsin hyvin; vastauksista sai kuvan tiedeyhteisön tämän hetkisestä suhtautumisesta kyseisiin asioihin, mutta jos maallikko olisi lukenut vastaukset, hän ei olisi varmaankaan tulkinnut niitä oikein. Näistä kokeiluistani voi lukea tarkemmin https://www.laakarilehti.fi/mielipide/kirurgi-kokeilee-tekoalya/
ChatGPT kehittyy ajan myötä. Tosin ei mitenkään taianomaisesti, vaan siten, että insinöörit analysoivat sen tuotoksia ja muuttavat algoritmeja. Paremmiksi kaiketi. Tälläkin hetkellä ChatGPT sopii hyvin vaikkapa jonkin lääketieteellisen kysymyksen pikatarkasteluun. Voi vaikka kysyä: mitkä ovat gastropareesin riskitekijät. Vastaukseen ei tietysti voi luottaa täysin, mutta sen perusteella voi tehdä vaikka tieteellisen aineistohaun, jos listalla on jotakin uutta ja kiinnostavaa.
Juuri nyt ChatGPT on eniten esillä ollut koneoppimiseen perustuva tiedonhakumenetelmä. Silti muitakin ja muunlaisiin algoritmeihin perustuvia menetelmiä on kehitteillä ja käytössäkin. Niitä käytetään vaikkapa kasvojen tunnistukseen ja riskianalyyseihin. Esimerkki oppivasta, eri tavalla kuin ChatGPT toimivasta algoritmista on Facebookin logiikka tarjota käyttäjälle mainoksia ja muuta sisältöä.
ChatGPTn suunnitelleella Open AIlla on myös DALL-e. Tiedonhakua kai sekin on, että algoritmi tekee kuvia pyynnöstä. Tätä kirjoitusta varten pyysin sitä tekemään kuvan Jeesuksesta neljän kuuluisan taiteilijan tyylin mukaisesti. Vaikka sivuston mukaan minulla onkin tekijänoikeudet DALL-e:n avulla tuottamiini kuviin, kävi ilmi, että asia ei olekaan niin yksinkertainen. Algoritmi saattaa nimittäin tehdä jo olemassa olevaa teosta muistuttavan kuvan jolloin syntyy epäselvyys oikeuksista. Sen vuoksi hauskaa kuvasarjaa ei voikaan printata tämän jutun kevennykseksi, vaan joudut itse näppäilemään pyynnön DALL-e:lle, jos haluat nähdä lopputuloksen.
Heidi Wikström
Kirjoittaja on gastroenterologisen kirurgian ja akuuttilääketieteen erikoislääkäri sekä sivutoiminen kuvataiteilija.