Suomen tieteellisten kirjastojen seuran uuden teknologian työryhmän järjestämässä webinaarissa luodattiin tekoälyn taustaa, nykyisyyttä ja tulevaisuutta. Ajankohtaisen teeman alustajina kuultiin useita aiheeseen perehtyneitä asiantuntijoita. Aamupäivän puheenvuoroissa keskityttiin tekoälyn historiaan ja nykytilaan. Iltapäivällä heräteltiin keskustelua tekoälyn tulevaisuudesta niin kirjastotyökaluna kuin muilla elämänalueilla.
Webinaarin avannut Ari-Pekka Lauhakari Taideyliopistolta tarjosi kattavan kiertomatkan tekoälyn historiaan. Tavoite luoda korkeampaa älyä on kulkenut ihmisen matkassa jo kauan. Tekoälyä onkin edeltänyt pitkä keksintöjen sarja aina sähkön keksimisestä ensimmäiseen tietokoneeseen ja internetiin sekä aina vain tehokkaampiin algoritmeihin ja analytiikkaan. Tekoälyn kehittymiseen on matkan varrella vaikuttanut moni tieteenala, kuten matematiikka, fysiikka, neuro-, kieli- ja kognitiotiede.
Heikko ja vahva tekoäly
Tuomo Seppänen Tampereen yliopistolta sukelsi esityksessään syvälle tekoälyn terminologiaan ja perusteisiin. Tekoäly on vaikeasti hahmotettava käsite. Sillä tarkoitetaan ohjelmistojen ja järjestelmien kykyä suorittaa tehtäviä ja prosesseja, jotka normaalisti vaatisivat ihmisen älykkyyttä. Aiemmin ajateltiin, ettei tietokone voisi voittaa ihmistä shakissa, mutta niin vain Watson päihitti shakkimestarin.
Käytännössä kaikki nykyiset sovellukset ovat vielä heikkoa tekoälyä (artificial narrow intelligence). Ne on siis suunniteltu suorittamaan yhtä tiettyä tehtävää. Esimerkkejä heikosta tekoälystä ovat vaikkapa kuvan- ja puheentunnistus. Vahvan tekoälyn (artificial general intelligence) tunnusmerkki on, että se pystyy ymmärtämään ja oppimaan sekä osaa soveltaa oppimaansa uusissa asioissa, aivan kuten ihminen. Leikkimielisesti ajatellen tekoälyn pitäisi esimerkiksi ilman avustusta päästä sisään satunnaiseen taloon ja pystyä keittämään kahvit. Heikon ja vahvan tekoälyn lisäksi puhutaan teoreettisesta superälystä, joka ylittäisi kaikilla tasoilla ihmisen älyn.
Kielimallien mahdollisuuksia ja rajoituksia
Generatiivinen tekoäly luo sisältöä – tekstiä, kuvia, koodia – algoritmien ja koneoppimisen avulla. Tuomo Seppänen esitteli erilaisia koneoppimisen opetusmenetelmiä, joilla algoritmit koulutetaan suorittamaan tehtäviä automaattisesti ilman ohjelmointia. Yksi koneoppimisen alalaji on syväoppiminen (deep learning), joka perustuu neuroverkkoihin ja niiden monimutkaisiin rakenteisiin. Neuroverkot taas jäljittelevät ihmisen aivojen rakennetta.
Suuret kielimallit (large language model) ovat tekoälysovelluksia, jotka hyödyntävät syväoppimisen menetelmiä ja neurorakenteita ennustaakseen ja tuottaakseen sisältöä. Esimerkiksi Open AI:n kehittämä ChatGPT-kielimalli on koulutettu valtavalla datamäärällä, jotta se oppisi sanojen ja virkkeiden suhteita toisiinsa. Kielimallia on hienosäädetty keskustelumaiseen vastaamiseen. Lisäksi sen kehittämisessä on hyödynnetty vahvistusoppimisen menetelmiä.
Webinaarin case-esimerkeissä tarkasteltiin kielimallien toimintaa käytännössä. Tekstiä generoivan tekoälyn lisäksi saatiin myös pieniä maistiaisia erilaisia kuvia generoivien sovellusten toiminnasta ja koulutuksesta.
Kielimallit ovat erityisen hyviä kieleen liittyvissä asioissa. Ne osaavat luoda tekstipohjan annetusta aiheesta tai tiivistää ja uudelleen muotoilla tekstiä. Ne ovat myös kelpo apu ideoinnissa ja asioiden sanallistamisessa.
Seppänen painotti, että kielimalleilla on myös rajoituksia. Kielimallille syötetty opetusaineisto ja sen laatu vaikuttaa kielimallin tuottamaan sisältöön. Jos lähdeaineisto ei ole kattavaa tai siinä on syrjiviä rakenteita, heijastuu se väistämättä myös tekstiin. Esimerkiksi joissakin tapauksessa rekrytoinnin tukena käytetty tekoäly on herättänyt maailmalla huolta syrjivistä valinnoista.
ChatGPT näyttäytyy tällä hetkellä välineenä myös tiedonhakuun, mutta voiko siihen luottaa? Case-esimerkeissä punnittiin, kuinka hyvin kielimalli taipuu tieteellisten tutkimusten hakuun. ChatGPT ”löysi” tutkimusartikkeleita, mutta tarkempi arviointi osoitti, että osa lähteistä oli puutteellisia tai epätosia. Esimerkiksi vuosiluvut tai lehden nimet saattoivat olla vääriä. Selväksi tuli, että ChatGPT:n antamat lähdelinkit pitää aina tarkistaa.
Suuret kielimallit pyrkivät ennustamaan ja tuottamaan tekstiä, mutta niiden toimintaa on vaikea selittää ja toisintaa. Ne toimivat osittain arvaamattomasti, ja siksi niiden luomaan sisältöön tuleekin suhtautua suurella varauksella. Kielimallit tuottavat sisältöä todennäköisyyksien pohjalta, mutta eivät varsinaisesti ”tiedä” mitään. Esimerkiksi ChatGPT:llä ei ole tietoa ajankohtaisista faktoista tai viimeisimmistä tapahtumista. Sen tuottama varmantuntuinen teksti saattaa olla aivan puuta heinää. Hauskana yksityiskohtana huomattiin kuitenkin, että riimittelyssä ja alkusointujen tuottamisessa ChatGPT oli haka.
Hakukoneen ja kielimallien yhdistelmiä on jo paljon tarjolla. Yksi esimerkki yhdistelmästä on Bing AI, jossa on sekä haku- että chat-ominaisuudet. Kielimalli tulkitsee käyttäjän kysymyksen ja syöttää sen hakukoneelle, jonka jälkeen kielimalli vastaa kysymykseen tulkiten saamiaan lähteitä. Näkyvin ero ChatGPT:hen on se, että lähdelinkit näkyvät vastauksessa. Tärkeää on huomioida, että myös tässä tapauksessa kielimalli voi antaa harhaanjohtavia vastauksia. Muita esimerkkejä keskustelevasta hakukoneesta ovat Bard ja Perplexity.ai.
Akateemisia työkaluja
Hannu Jokiranta esitteli tekoälyn akateemisia työkaluja. Jos ChatGPT ja Bing Chat soveltuvat paremmin tekstien jäsentelyyn ja ideointiin, niin tieteellisten artikkelien etsimiseen ja analysointiin soveltuvia tekoälysovelluksia ovat esimerkiksi Semantic Scholar, Keenious ja Elicit.
- Semantic Scholar haravoi artikkeleita useilta tiedekustantajilta. Artikkeleissa on sekä tekoälyn luoma tiivistelmä (TLDR) että artikkelin oma tiivistelmä. Myös osa rajauksista on tekoälyn luomia.
- Norjalaistaustainen Keenious lienee opiskelijaystävällinen työkalu. Se auttaa löytämään olennaiset artikkelit tiettyyn aihealueeseen ja tarjoaa suosituksia uusista tutkimusnäkökulmista. Lisäksi se tunnistaa keskeiset tutkimuskohteet eri tutkimusalueilla.
- Elicit tarjoaa työkalun tutkimusartikkelien etsimiseen ja se auttaa myös tutkimuskysymysten muotoilussa.
Miltä tulevaisuus näyttää?
Päivän anti osoitti, että tekoälyn saralla on paljon haltuun otettavaa. Tekoäly on etenkin viimeisen vuoden aikana harpannut hämmästyttävällä tavalla ja nopeudella eteenpäin. Tekoälyyn liittyy vielä paljon avoimia kysymyksiä, ja linjauksia ja oppaita on vasta syntymässä.
Yhtä mieltä oltiin siitä, että tieteellisen kirjaston on tärkeää pysyä kehityksessä mukana ja olla aktiivinen. Tekoäly on jo kaikkialla, ja korkeakoulun pitäisi olla perillä siitä, miten ja millaisissa tilanteissa tekoälyä hyödynnetään opiskelussa. Opiskelijoita tulisi toisaalta kannustaa käyttämään tekoälyä, mutta samalla tuoda esille sen rajoitukset ja puutteet.
Keynote-puheenvuorossa Yocong Lao Oulun yliopistosta toi esille eettiset kysymykset generatiivisen tekoälyn (generative AI) aikakaudella. Hän korosti koulutuksen ja eri lukutaitojen merkitystä, tieteidenvälistä yhteistyötä tutkijoiden välillä ja tekoälyä koskevien säädösten sekä kehittyneen teknologian käyttöönoton edistämistä haitallisten generatiivisten tekoälyartefaktien havaitsemiseksi.
Ryhmäkeskusteluissa saatiin vielä pohtia tekoälyn mahdollisia ja toivottuja tulevaisuuksia. Oma taiteenlajinsa tekoälyn käytössä on se, miten tekoälylle tulisi puhua eli miten kirjoittaa tehokkaita kehotteita (engl. prompt). Tulevaisuuden tietoasiantuntijalta saatetaankin vaatia esimerkiksi kehotesuunnittelun (prompt engineering) taitoja.
Tekoäly on oiva tiimikaveri ja virtuaaliapuri. Kirjastolla voisi olla tärkeä rooli niin asiakkaiden kouluttamisessa kuin eettisten ja vastuullisten toimintatapojen edistämisessä.
Kommentit