Keskustelussa oppimisen tulevaisuudesta ehkä tämän hetken kuumin peruna on tekoäly. Siihen liitetään monenlaisia uhkia, mutta se voi tarjota oppimiselle myös kiinnostavia mahdollisuuksia. Miten tekoälyä voisi hyödyntää oppimisen ja koulutuksen tukena? Pureudumme tässä jaksossa tekoälyyn ja oppimisen tulevaisuuteen Headain perustaja ja kognitiotieteilijä Harri Ketamon ja Haaga-Helian yliopettaja Lili Aunimon kanssa. Podcastin juontaa hankejohtaja Hanna Nordlund.
Kuuntele jakso:
Jakson tekstivastine
Hanna Nordlund:
Tervetuloa Digivisio 2030 –hankkeen podcastiin, jossa pureudutaan siihen, millaista oppimisen tulevaisuutta me Suomessa parhaillaan rakennetaan. Mä olen Hanna Nordlund, ja mun kanssa saman mikin äärellä on vaihtuvia asiantuntijavieraita. Tästä alkaa Oppimisen Seuraava Luku.
[Musiikkia]
Hanna Nordlund:
Tervetuloa Oppimisen Seuraava Luku –podcastin viidennen ja tämän kauden viimeisen jakson pariin. Me keskustellaan tänään tekoälystä ja siitä, kuinka oppimista voidaan tekoälyn avulla tukea nyt ja tulevaisuudessa. Tässä mun kanssa saman mikin äärellä on Haaga-Helian yliopettaja, tietojenkäsittelytieteilijä ja filosofian tohtori Lili Aunimo ja Hedai:n perustaja, kognitiotieteilijä ja filosofian tohtori Harri Ketamo. Mahtavaa, kun pääsitte vieraaksi. Lämpimästi tervetuloa.
Harri Ketamo:
Kiitos.
Lili Aunimo:
Kiitos.
Hanna Nordlund:
Lili sä opetat etenkin data-analyysin menetelmistä ja tekoälysovellusten kehittämisestä. Miten sä koet, että onko opiskelijoita helppo saada motivoitumaan tästä aiheesta?
Lili Aunimo:
No, oikeastaan on tosi helppo saada heidät motivoitumaan. He ovat jo hyvin motivoituneita, kun tulevat kursseille. Meillä näissä aiheissa on monesti kurssitarjontaa vähemmän kuin mitä olisi opiskelijoita, ja tosiaan kun tekoäly lupaa tämmöistä tuottavuuden parannusta monessakin alassa, niin se tietysti kiinnostaa opiskelijoita. Sitten toisaalta se data-analytiikka kiinnostaa, kun tämän digitalisaation myötä meillä on tosi paljon enemmän dataa asiasta kuin asiasta, ja sitä olisi hyvä sitten hyödyntää liiketoiminnassa.
Hanna Nordlund:
Tervetuloa myös Harri. Sä olet tehnyt 20 vuotta hankkeita YK:n, Unescon ja Euroopan ja USA:n huippuyliopistojen kanssa. Miten sä alun perin kiinnostuit tästä aihepiiristä?
Harri Ketamo:
No, mä en osaa mitään yksittäistä sanoa, mutta aluksi tällainen käytöksen laskennallinen mallinnus alkoi kiinnostamaan urheilun kautta, ja sitä kautta oikeastaan tietokonepelien non-player character siis koneen ohjaaminen hahmojen realistisen käytöksen mallinnuksena. Toki oma urheilutausta siinä kanssa oli mukana, että miten mallinnetaan käytöstä. No vähitellen siihen tuli mukaan kieli. Miten voidaan tehdä algoritmeja, jotka osaa jäsentää kieltä kuin ihminen. Ja oikeastaan tuollainen laajempi sitten voisiko sanoa menetelmällinen neurolaskennat. Nämä kaikki kasvoi vähän yhteen. Siinä sitten kun mä maisteriksi valmistuin, niin alkoi tämä nykyinen suunta tai paketti olemaan vähän kasassa.
Hanna Nordlund:
Me ollaan tosi kiinnostavan aiheen äärellä tänään. Miten sä, Lili, näet opettajan näkökulmasta, että miten hyvin me osataan hyödyntää tekoälyä koulutuksessa ihan tänä päivänä?
Lili Aunimo:
No mä näkisin, että tässä on tosiaan aika paljon justiinsa eroja sillä tavalla, että me hyödynnetään kyllä tekoälyä opetuksessa. Opettajat hyödyntää, opiskelijat hyödyntää ja sitten organisaatiotasolla hyödynnetään sitä. Mutta sitten kun mennään varsinkin yksittäisiin opiskelijoihin ja opettajiin, niin aika paljon on eroa. Meillä on ihan nämä tyypilliset aikaiset teknologian omaksujat siellä yhdessä päässä, ja he ovat sitten tyypillisesti just näitä tietojenkäsittelyn opiskelijoita meillä Haaga-Heliassa ja saman alan opettajia myöskin. Sitten tietysti ei niin tietojenkäsittelyllisten aineiden opiskelijat ja opettajat on sitten ehkä siellä toisessa päässä. Mutta toki tämä on vaan karkea yleistys, mutta kyllä meillä on käytössä jo aika paljon noilla kaikilla kolmella eri tasolla, mitä mainitsinkin. Organisaatio, opiskelijat ja opettajat, niin hyödyntävät kyllä tekoälyä päivittäin monesti.
Hanna Nordlund:
Eli me ollaan jo vauhdissa, ja nyt varmaan tuon ChatGPT:n myötä tekoälyyn liittyvät asiat on noussut viimeistään ihan kahvipöytäkeskusteluissakin uudelle tasolle ja myös korkeakouluissa aihe on puhututtanut. Miten sä, Harri, koet, että millaisia mahdollisuuksia tekoäly sitten tulevaisuudessa tuo oppimiselle ja korkeakouluille?
Harri Ketamo:
Joo tämä ChatGPT:n tuleminen on ollut vähän sellainen laajemman mittakaavan avaus keskustelulle, jolla itse asiassa on ihan mielettömän pitkä historia. Ei 50 vuotta riitä, mitä on ikään kuin laskennallisen älykkyyden erilaisia teemoja tuotu. Jos ajatellaan kaikki adaptiivisen oppimisen ratkaisut jo 80–90-luvulta, niin nehän on samaa sukua. Mutta että me ollaan siinä mielessä alkutekijöissä, että me ollaan tähän asti pelattu ehkä enemmän sillä, että tehdään hyviä täsmällisiä algoritmeja täsmällisiin ongelmiin, joita on tutkittu kauan, mutta nytten nousseet laskentatehot mahdollistaa ihan uudenlaisia lähestymisiä. Tietty tässä pitää aina muistaa se, että silloin kun tehdään tiedettä, niin me ei voida tehdä randomia tai mustia laatikoita. Tavallaan se keisarin uudet vaatteet -tarina on vielä vanhempi kuin 50 vuotta, ja se täytyy aina pitää mielessä.
Hanna Nordlund:
Mitä sä, Lili, ajattelet tulevaisuudesta, että minkälaisia mahdollisuuksia tekoäly sitten tuo yksittäiselle oppijalle tulevaisuudessa?
Lili Aunimo:
No, tosi monia mahdollisuuksia tuo, ja tosiaan on jo käytössäkin, mutta esimerkiksi semmoinenkin, että nyt kun oppijoilla on mahdollisuus vaikkapa jo hyödyntää ChatGPT:kin, niin tässä he voivat vaikka ohjelmakoodia generoida meidän tietojenkäsittelyn opiskelijat. Ja sitten siellä on ne valmiit kommentitkin jo sitten siellä koodissa, ja tätähän meillä tehdäänkin nyt jo sitten kursseilla. Aina ei tarvitse pyytää opettajalta apua, että miten tämä ohjelmakoodi menisi, vaan kun oikein osaa kysyä, niin sieltä tulee valmiit koodit sitten. Tulevaisuudessa meillä voisi myös olla opiskelijoilla käytössään jo näitä valmiita arviointityökaluja. He voisivat saada arvioinnin nyt vaikka siitä ohjelmistokehitysprojektinsa tuloksista sekä siitä koodista mutta että myöskin siitä dokumentaatiosta. Ja toki sitten vaikka opinnäytetöistäkin voisi jo saada sen valmiin arvion, joka olisi sitten tekoälyn luoma arvio. Tämmöiset välipalautteet voisi saada aika näppärästi 24 tuntia vuorokaudessa keskellä kesääkin, juhannuksenakin, jos tarve vaatii. Ja sitten toki toinen on sitten tämä personoidut oppimispolut ja sitten justiinsa se, että miten löytyisi ne siihen omaan tavoitteeseen sopivat opintojaksot ja tapahtumat. Koska meillä on tosi paljon hyvää materiaalia ja hyvää sisältöä tarjolla ja hyviä tapahtumia liittyen eri ammatteihin, niin että ne saataisiin oikeille opiskelijoille oikeaan aikaan tiedoksi, niin siinä on paljon mahdollisuutta myös. Tosiaan sitten myös siinä, että opiskelijat voi keskenänsä verkostoitua. Löydettäisiin ne opiskelijat, ketkä on kiinnostuneet samoista aiheista, kenellä on se sama opintojen vaihe vaikka meneillään sillä hetkellä, niin se voisi myös auttaa sitä, että saisi ihan sitä vertaistukea ja sitten sitä sparrausta siitä opiskelijoiden kesken. Tekoälyllä olisi tässäkin sitten rooli. Toki on paljon dataa kun digitaalisissa ympäristöissä toimitaan. Vielä tämän kaiken datan voisi sitten vielä analysoida ja koneoppimismenetelmin tuottaa ennakoivia malleja ja opiskelijat voisi sitten vielä parantaa tosiaan sitä opiskelutapaansa sen oppimisanalytiikan tulosten perusteella ja parantaa vaikkapa verkostoitumistansa. Mahdollisuuksia on loputtomasti nyt kun meillä sitten digitaalisessa ympäristössä opiskellaan ja sitä dataa kertyy siitä toiminnasta. Tässä oli nyt joitakin esimerkkejä näin alkuun.
Hanna Nordlund:
Kiitos. Tosi hyviä ja konkreettisia esimerkkejä. Itse asiassa näistä esimerkiksi just nämä yksilölliset oppimispolut ja joustavampi oppiminen, mitä toit esiin, niin nämähän on myös Digivisio-hankkeen ihan siellä ytimessä. Eli tämä on tosi tärkeä aihepiiri. Me ollaan nyt todettu tässä jo, että mahdollisuuksia on paljon ja tulevaisuudessa voidaan tekoälyä käyttää monissa asioissa meidän apuna, mutta puhutaan hetki myös siitä toisesta puolesta. Esimerkiksi Euroopan Parlamentti on todennut, että tekoälyn kautta voidaan vaikuttaa ja ohjata ihmisiä esimerkiksi ostopäätöksissä, tietoa voidaan kerätä ja käyttää myös epäeettisillä tavoilla, ja esimerkiksi nyt kilpailumielessä voi olla syntymässä sellainen tilanne, että ne yritykset, joilla on paremmat resurssit kerätä dataa ja hyödyntää sitä, niin voi saada tosi isoja kilpailullisia etumatkoja. Sitten on nostettu myös esiin se, että tämän hetkinen sääntelyn puute nähdään isona ongelmana. Mitä sä ajattelet, Harri, just näistä uhista tässä oppimisen kontekstissa, että pitäisikö olla huolissaan?
Harri Ketamo:
Aloitetaan nopealla vastauksella. Pitää olla. Mennään sitten siihen, että mistä pitää olla huolissaan. Eli jos me lähdetään vaikka siitä, että itse AI:n ympärillä ei ole ollut täsmällistä regulaatiota, mutta meillä on kuitenkin ollut ikään kuin monenlaista lainsäädäntöä, joka turvaa yksityisyyttä. GDPR esimerkiksi oli aivan loistava täsmennys siihen, että harmaa alue pieneni mittavasti datan ympärillä. Ja toisaalta etiikan puolella meillä on etiikka tieteenalana, olisiko 3000 vuotta vanha. Meillä on selkänojat, mihin mennä, mutta nyt sitten tällainen tietyllä tavalla tarpeellinen regulaatiokeskustelu, mä oikaisen nyt tosi paljon. Asiantuntijat voi sitten kommentoida vaikka Twitteriin. Mutta tämä keskustelu pyörii regulaatiossa, että EU:n AI Act pyrkii rajaamaan menetelmiä, jotka voi olla ihmiselle haitallisia. Menetelmiä, sovellusalueita, jotka on ihmiselle ehkä haitallisia. USA:n AI Bill of Rights taas lähtee siitä, että näiden sekä algoritmien että datajoukkojen tulisi olla verifioitavissa, arvioitavissa. Niille pitäisi pystyä tekemään jotain. Transparency, explainability on ehkä ne kuvaavimmat sanat. Toki ne on Euroopan puolella. Sitten ehkä kolmas pääjuttu. Nimeä mä en tiedä. Kiinan puolella lähtee siitä, että tekoäly ei saa antaa lausuntoja, jotka ovat ei-toivottuja. Mutta näitten ympärillä mä sanoisin, että siellä ei ole sellaista absoluuttista totuutta. Yhtä lailla tämä Euroopan lähestyminen, mahdolliset sovellukset, jotka ovat haitallisia ihmisille, mistä me se tiedetään ja mistä me se tiedetään, että ihmiselle ei-haitallinen buukkaa itsellesi jotain sovellus ei pystykään buukkaamaan jotain odottamattomasti. Toisaalta taas USA:n lähestyminen, kuka validoi, millä pätevyydellä, kuinka paljon. Eli tässä ei ole sellaista selkeätä linjaa. Siinä mielessä mä sanoisin, että on ehkä liioiteltua tehdä tästä AI asia, koska tämä on meidän yleinen, voisiko sanoa sekä elämäntapa eurooppalainen, USA:lainen, kiinalainen kulttuuriasia, mutta meillä on työkaluja. Siis just palataan siihen, että meillä on pitkä lainsäädäntö tieteessä, pitkä klassisen etiikan tutkimus ja julkaisuperinne. Meidän täytyy tehdä töitä. Tämä keskustelu siitä, että pitäisikö kehitys pysäyttää X kuukautta on sinänsä kaikessa populaarisuudessaan hyvä herättäjä, mutta se kysymys, mihin meidän pitäisi tulla on just se, että me ei varmaan päästä eroon, että tämä transparency, explainability –ulottuvuus on aivan välttämätön. Sitten toinen puoli tiedostaa, miten sovelluksia voidaan käyttää hyvään ja pahaan. Tässä pitää olla huolissaan, mutta missään nimessä sellainen pää pensaaseen laittaminen, että kielletään varmuuden vuoksi kaikki, ei johda mihinkään hyvään.
Hanna Nordlund:
Eli voisiko sanoa, että pitää olla huolissaan ja pitää olla hereillä?
Harri Ketamo:
No, tuo on hyvä tiivistys.
Hanna Nordlund:
Mitäs, Lili, haluatko sä jatkaa tähän ja ehkä vähän laajenna vielä just sieltä korkeakoulun näkökulmasta, niin mitä sä ajattelet, että mihin just nyt pitäisi osata kiinnittää huomiota näissä asioissa?
Lili Aunimo:
Ihan siinä mä olen samoilla linjoilla Harrin kanssa, että tosiaan pitää olla hereillä ja tosiaan se selitettävä tekoäly eli explainable AI on tosiaan tosi tärkeässä roolissa, varsinkin korkeakouluissa. Jos me hyödynnetään tekoälyä ohjauksessa, arvioinnissa, toki myöskin tiedonhankinnassa, niin että tekoälyltä pitää vaatia, että siitä voidaan nähdä, että mihin se päättely ja mihin tietolähteisiin se perustuu se tulos mikä sieltä saadaan. Pitää olla ymmärrys myös siitä, miten se tekoäly toimii. Se ei voi olla mikään ihan musta laatikko, vaan pitää vaatia silloin, kun tehdään esimerkiksi hankintoja, että siellä on esimerkiksi avointa lähdekoodia. Tiedetään, mitä algoritmeja siellä on käytetty. Sitten että on taas käytetty myös selittäviä algoritmeja silloin vaan kun se on mahdollista ja ettei aina tarvitse mennä siihen syväoppimisen kaikista tehokkaampaan ja laskennallisesti myöskin raskaimpaan algoritmin, vaikka siinä olisikin ehkä se tarkin siinä tilanteessa. Vaan voidaan ottaa myös joku niin kutsuttu white box –algoritmi, joka on jo luonnostaan selittävä, ja sillä saatetaan saada hieman huonommat tulokset, mutta että me tiedetään mihin se päätös ja päättely perustuu. Toki sitten meillä on myös näitä, että me voidaan sen mallin jälkeen myöskin tehdä sille se selitys. Eli voidaan käyttää toki näitä vaikkapa syväoppimisen algoritmeja, mutta sitten vaan pitää se selitys tietyillä menetelmillä siihen päälle laittaa. Ja tämä on tosiaan tärkeä vaatia silloin, kun me tehdään näitä hankintoja. Ja tosiaan sitten vielä sen verran jatkan, että kyllä mä näkisin myöskin, kuten Harri, että on tosi tärkeätä, että hyödynnetään tekoälyn mahdollisuuksia myös koulutuksessa. Koska työelämässä kuitenkin opiskelijat sitten pääsevät hyödyntämään tekoälyn mahdollisuuksia just, koska siinä on sitä tuottavuuden lupausta. Mutta ilman muuta korkeakoulu on se paikka, missä me voidaan kiinnittää eettisiin asioihin huomiota, koska se kuuluu meidän luonteeseen. Sitten taas ei me voida olettaa, että firmat tekisivät sitä meidän puolestaan, koska heillä on eri tavoitteet kun meillä. Kyllä mä näen, että korkeakoulussa meidän pitää oikeasti olla hereillä ja tehdä tätä pohdintaa.
Hanna Nordlund:
Studiossa näyttää siltä, että Harri haluaa sanoa tähän kohtaan jotain.
Harri Ketamo:
Mä voisin olla varsin jyrkästi eri mieltä tuosta open source –vaatimuksesta. Me tiedetään, että open source on helppo sana sanoa, että se on silloin turvallista. Mutta onko. Jos me mietitään meidän viime aikojen isoimpia tietoturvariskejä, mitä on periytynyt esimerkiksi järjestelmiin, ne on kaikki uinut sisään open sourcen kautta. Open source on strateginen valinta, mutta se edellyttää, että sitä koodia luetaan tarkasti. On hirveä määrä erilaisia loggereita mitkä ui sisälle tai sieltä aukeaa portteja ulos. Data saattaa vuotaa. Mä nyt kerron uhkakuvia. Totta kai kuuntelija nyt tietää, että me ollaan alan yrittäjä, ja me taas ei tehdä open sourcea vaan me tehdään tuotetta, mutta tuotteista ollaan silloin vastuussa ja tiedetään mitä tapahtuu. Esimerkiksi käyttämällä randomeita open source –komponentteja ei kukaan lopulta tiedä, missä se data majailee, mutta käyttämällä taas sitten sellaisten toimijoiden, jotka pystyy antamaan palvelunsa validoitavaksi, mitä ikinä se tarkoittaakaan, niin silloin se vastuu siirtyy taas sitten palveluntarjoajalle, että se data on just siellä missä luvataan. Ja kolmas ulottuvuus. Mä puhutaan open sourcesta ja me unohdetaan kaikista isoin tekijä, kielimallit. Nyt kielimalli, jolla me arvioidaan, jos vaikka puhutaan nyt ChatGPT:n termein, on ihan avainasemassa, että mitä harhoja siellä on, miten se on vääristynyt. Esimerkiksi kokeilkaa kysyä ChatGPT-3:n perustuvalta versiolta mitä tahansa Venäjän hyökkäyssodasta Ukrainaan. Aika monen asian se kiertää toisin, koska se on piilotettu. Nelonen pärjää paremmin, mutta kyllä sekin aika varovainen on. Ja kun me tällaisilla tavaroilla tuutataan eetteriin enemmän tavaraa kuin ikinä, niin meillä on todella iso riski käsillä, että me biasoidaan meidän koko seuraava opetusdata.
Hanna Nordlund:
Joo. Tässä tulee mielenkiintoisia näkökulmia. Haluatko sä vielä, Lili, tähän kommentoida ennen kuin sitten siirrytään eteenpäin?
Lili Aunimo:
No joo, kyllä ehdottomasti mä haluan kommentoida. Harrilla oli ilman muuta tuossa hyviä pointteja. Mutta sen verran nyt kuitenkin puolustaisin näitä avoimen lähdekoodin ohjelmistoja vielä, että tietysti hankinta vaatii osaamista. Eli ei nyt mitään random avointa koodia, en mäkään sitäkään kannata, kuten Harrikin tuossa sanoi. Eli pitää tosiaan tietää, mitä se ohjelmisto on syönyt ja mistä se koostuu, ja siinä tietysti vaaditaan asiantuntemusta. Mutta näkisin, että korkeakouluilla on aika hyvin asiantuntemusta tietojenkäsittelytieteen alalta, ja pitäisi vain sitten saada hankintoihin osallistumaan ne oikeat henkilöt ja katselmoida se koodi, mitä ollaan hankkimassa. Toki sitten myöskin näen niin, että se myöskin mahdollistaa sen, että voidaan itsekin joustavammin eri toimittajilta hankkia näitä palveluita sen jälkeen, kun siinä on avoimet rajapinnat myöskin, ja ei jouduta tämmöiseen toimittajalukkoon, vendor lockiin niin helposti. Plus, että pystytään tarvittaessa hieman ominkin voimin kehittämään jotain uutta kenties siihen tai kokeilemaan jotain uutta siihen ohjelmistokoodiin. Ja kielimalleihin liittyen, niin siinä kanssa olen sama mieltä, että se on tosi tärkeä, mitä kielimalleja käytetään. Nyttenhän on EU:llakin aloite, missä on näitä Euroopassa kehitettyjä kielimalleja esimerkiksi. Ilman muuta kun käyttää näitä sovelluksia, niin kannattaa katsoa myös mitä kielimallia käyttää ja miten se on tehty ja ketkä sen ovat tehneet ja näin pois. Mutta että hereillä pitää olla. Siitä me oltiin ihan Harrin kanssa ihan täysin samaa mieltä, että tämä kaikki vaatii työtä ja valppautta.
Hanna Nordlund:
Joo. Just näin, että hereillä. Just mä teidän vastauksista poimin sen, että pitää tietää, mitä on hankkimassa ja toisaalta pitää ymmärtää, että mitkä toimijat siellä eri ratkaisujen takana on, ja sillä tavalla myös tarkastella toimijoiden sitä vastuullisuutta. Nämä on tosi hyviä pointteja. Nämä on varmaan myös aika isoja haasteita siinä mielessä, että me kaikki tiedetään hankintaprosessien kiemurat ja tavallaan just se, että silloin kun hankitaan, niin pitää siinä vaiheessa, kun ollaan hankkimassa, niin tietää mitä on tekemässä. Myöhemmin on sitten paljon vaikeampi korjata. Tässä oikeastaan päästiinkin jo hyvin asiaan, mistä mä halusin teidän kanssa seuraavana puhua. Tekoälyn kehittämisessä datalla on tosi iso rooli. Tiedetään, että nimenomaan sen datan laadulla on valtava merkitys siihen, että miten se tekoäly toimii. Niin kuin jo itsekin toitte esiin, että erilaiset vinoumat siellä datassa voi johtaa tosi huonoihinkin lopputuloksiin. Sano Harri, että mitä me tutkimuksen perusteella just tästä asiasta tiedetään. Datan laatu, erilaiset vinoumat. Mitä me ymmärretään siitä tällä hetkellä?
Harri Ketamo:
Pysytään vaikka tuossa GPT-teemassa, kun se on nyt ajankohtainen ja kaikille tuttu. Tietyllä tavalla, kun me rakennetaan kielimallia, niin se data, johon se kielimalli perustuu, on ihan ratkaisevassa asemassa. Vaikka nyt sitten, jos me tehdään kielimalli perustuen Wikipediaan, mikä on yleinen ratkaisu ja GPT-3 ja 4 perustuu paljon laajempiin, jossa on puoli internetiä heitetty sisälle. Mutta siis jos ajatellaan, että Wikipediaan perustuva kielimalli, niin se edustaa kyllä varmasti aika hyvin sen yhteisön näkemystä, mikä on sitä ollut kirjoittamassa. Sieltä pystytään kuratoimaan asioita ulos, mutta sitten me tiedetään, että Wikipedioita käännetään suoraan kieleltä toiselle ja niiden kulttuuriset ilmentymät saattaa pitää sisällään yllättäviäkin piirteitä. Jos esimerkiksi Wikipediasta vertaa käännettyjä sivuja jalkapallosta versus aidosti tehtyjä sivuja, ne on kovasti erinäköisiä. Eli tietyllä tavalla itsekin voi tehdä nopeata tsekkausta, että mitä se vaikuttaa. Puhumattakaan sitten, että millä perusteella me rankataan joku asia ulos. GBT:n aikaisemmista versioista esimerkiksi oli varmuuden vuoksi kaikki toisen maailmansodan asiat otettu ulos. Nämä tietyllä tavalla tällaiset jonkun jostain syystä tekemät rajaukset, varmasti hyvässä tarkoituksessa, saattaa hyvin pitkälle estää, että joku teema ei nousekaan puheenaiheeksi. Vai kenen mielestä ihan oikeasti kansanmurhista ei saisi puhua. Jos ne lakaistaan maton alle kielimalleissa, ne ei näy siellä nyt, niin me tiedetään, että seuraava kielimalli, mihin tarvitaan kymmenkertainen määrä dataa, siitä luultavasti 80 prosenttia on ihan generoitu edellisellä GPT:llä, niin paljonko se vinoutuu vielä lisää. Ihan sama ilmiö siis toistuu kaikkialla meidän ympäristöissä. Tämä ei ole tekoälyn ongelma. Tämä on paljon isompi ongelma. Jos me vaikka otetaan tämä klassinen rekrytointi esimerkki, että yritys teki deep learning –mallin, ketä pitäisi rekrytoida johtajaksi aikaisempien rekrytointien perusteella. Ei varmaan ketään yllätä, että mitä se kone sinne suositteli, ja eihän tämä ole tekoälyn vika. Tämä on todellinen suunnittelumoka, joka osoittaa siltä suunnittelijalta täyttä kyvyttömyyttä ymmärtää algoritmia tai dataa.
Lili Aunimo:
Joo. Ilman muuta pitää olla huolissaan myös siitä, että millainen keskustelun aihepiirien asettaja tekoäly tästä lähtien on. Esimerkiksi jos meillä vaikkapa nyt opettajat alkaa generoimaan lähteitä, saa uuden opetettavan aiheen ja sitten kysyy GPT:ltä, että no, mitäs tähän aihepiiriin kuuluu ja mitä lähteitä olisi hyvä ottaa mukaan, niin siinä tietysti sieltä saa jotkut hyvät ehdotukset, mutta kriittinen ajattelu on sitten se, mikä nousee tosi isoon arvoon opettajalla siinä. Katsoo, että onko tämä nyt kaikki, mitä tästä aihepiiristä kuuluu sanoa ja korostaako tämä nyt jotain aihepiiriä liikaa. Eli se, että opettaja yhä vieläkin katsoo sitten useasta eri lähteestä niitä suosituksia, ja sitten vähän reflektoi itsekin oman kuitenkin koulutuksessakin pohjalta, että mikä tässä on oikeasti tärkeätä tässä aiheessa ja mitä opiskelijoille nyt olisi hyvä opettaa. Eli sitä ajattelua ei voi kuitenkaan ulkoistaa tekoälylle, vaan ihmisen pitää kyllä vielä ajatella ihan itse.
Hanna Nordlund:
Tuo oli erinomaisen hyvin sanottu, ja tietyllä tavalla tässä ehkä näkyykin se, että miten nopeasti me tullaan sitten aika lailla sinne korkeakoulutuksen ja oppimisen ihan peruskysymysten ääreen täältä tekoälystäkin hyvin nopeasti. Mitäs Harri, haluatko vielä tähän…
Harri Ketamo:
No, mä oikeastaan jatkaisin, että toihan on asian ytimessä, että mitä on oppiminen ja mitä on ajatuksen kehittyminen tai conceptual change. En keksi nyt hyvää suomennosta sille. Mitä on oppiminen, miten se tapahtuu, mitä on tiedon rakentaminen. Ja nyt oikeastaan, kun meillä on tätä keskustelua, että pitääkö ChatGPT kieltää vai ei, niin mulla on kyllä tiukka kanta, että ei missään tapauksessa. Vaan meidän pitää lähteä kyseenalaistamaan sitä, että mitä on tämä oppiminen, jos se on korkeakoulu-, yliopistotasoista ja minkälaiseen ajattelun kehittymiseen se tulisi johtaa. Tämä on ytimessä. Kriittisen ajattelun lisäksi me tarvitaan kyllä aina hyvä yleissivistys. Mä sanoisin, että sellaisen laajan hyvän yleissivistyksen arvo on vielä isompi kuin aikaisemmin. Kriittinen ajattelu, laaja yleissivistys nostaa arvoa.
Hanna Nordlund:
Me suomalaiset ei olla mitenkään yksin innostuneita ja kiinnostuneita tekoälyn hyödyntämiseen liittyen, vaan sehän on tällä hetkellä iso ilmiö ihan joka paikassa. Puhutaan hetki siitä, että minkälaisia hyviä esimerkkejä maailmalla on tällä hetkellä, mitä teidän mielestä ehkä Suomessakin pitäisi tarkemmin katsoa ja jopa sitten täällä ottaa käyttöön.
Lili Aunimo:
Semmoinen tulee ekana mieleen, että aika pitkään on oikeastaan esimerkiksi Yhdysvalloissakin ollut muun muassa Purduen yliopistossa käytössä tämmöinen Signal-järjestelmä, mikä automaattisesti lähettää opiskelijoille viestiä, kun huomaa, että opiskelija vaikkapa kurssilla sen oppimisanalytiikan perusteella näyttää ehkä putoavan kärryiltä. Eli ihan siinä jo kurssin alkuvaiheessa opiskelija saattaa saada automaattisen viestin puhelimeensa, että hei, tämmöistä ja tämmöistä olisi hyvä tehdä, että saavuttaisi hyvät tulokset, oppimistulokset tältä kurssilta. Elikkä hyödynnettäisiin siinä opiskelijoiden ohjaamisessa ja neuvomisessa tätä automatiikkaa. Nämä sillä tavalla liittyy tekoälyyn, että ne on monesti sitten tosiaan ne data-analyysit tehty prediktiivisten mallien avulla. Tämä ei ole nyt sinänsä ihan kauhean uutta, ja se on ollut jo jonkun aikaa käytössä. Sitten tosiaan toisia esimerkkejä. No, Ruotsissa just jonkun aikaa sitten juttelin, niin siellä on korkeakoulujen konserni tai tämmöinen konsortio oikeastaan ottanut käyttöön tämmöistä chatbotia opiskelijaneuvonnassa, ja he ovat sen tehneet yhdessä. Elikkä tietohallintoyksiköt siellä ovat tehneet yhteishankinnan ja miettineet tätä. Se näytti kanssa aika sillä tavalla käytännön läheiseltä ja mielenkiintoiselta ratkaisulta, ja just voisi auttaa sitä opon työtä, että opo ei ihan niin paljon kuormittuisi varsinkin lukukausien alussa, kun tulee paljon kysymyksiä. Toki siinä on sitten monia käytännön juttuja ratkottavana, mutta siellä on hyvä case, missä niitä on ratkottu ja lähellä Suomea. Toki sitten kun on noiden ulkomaalaisten kollegojen kanssa juttelen, niin se mikä on välillä nousee esiin on se, että he hyödyntää jonkun verran myös tätä tekoälyä ihan tämmöiseen tenttien valvontaan ja sen varmistamiseen, että sen tentin tai jonkun esseenkin tekee sitten se opiskelija, kuka väittääkin, että on sen tehnyt. Elikkä nytten digitaalisessa maailmassa, niin meillä tietysti pitää myös kehittää tähän valvontaan vähän uusia menetelmiä, kun ei enää olla siinä opettajan valvovan silmän alla välttämättä. Semmoisia näyttäisi olevan muilla jonkun verran enemmän myöskin käytössä, näitä proctoring systems eli valvontajärjestelmiä, ja siellä hyödynnetään myös tekoälyä.
Hanna Nordlund:
No niin. Siinä jo monta hyvää esimerkkiä. Mitäs Harri, mitä sä haluaisit maailmalta nostaa esiin?
Harri Ketamo:
Mä nostaisin sellaisen yli sata vuotta pitkän adaptiivisen oppimisen perinteen. Tavallaan adaptiivisen oppimisen perusmekaniikka, että mitataan mitä opiskelija osaa nyt, verrataan sitä tämän hetken tavoitteisiin ja annetaan sitten suosituksia, että mitä opiskelijan pitäisi lukea tai tehdä. Tämä on yli sata vuotta vanha ikään kuin teoreettinen viitekehys. Sitä on kehitetty monta sukupolvea ihan sääntöpohjaista koneista ensin erilaisiin ontologioita hyödyntäviin. Tämä adaptiivinen oppiminen tulee kymmenen vuoden välein aina trendiksi. Nyt me ollaan mielenkiintoisessa tilanteessa, koska meillä on pitkästä aikaa taas uutta. Esimerkiksi me ollaan tehty tällainen Compass-niminen algoritmikokonaisuus, siellä on taustalla myös kielimallia, mikä pyrkii arviomaan henkilön tämän hetken osaamiset. Ei niin, että niitä mitattaisi vaan erilaisista dokumenteista, kuten vaikka suoritetuista opintojaksoista, jotka backtrackataan opintojakson selosteeseen, jolloinka sieltä saadaan ne osaamiset, mitä pitäisi olla. Ymmärtäen tietysti, että ykkösen arvosanalla niitä kaikkia ei välttämättä ole ja vitosella on varmaan saanut enemmän, mutta parempi kuin ei mitään. No nyt kun meillä on kertynyt, että mitä se opiskelija osaa, niin me voidaan verrata vaikka viimeisen vuoden opiskelijan osaamiskertymää hänen alan työmarkkinan osaamiskertymään. Kun me normalisoidaan se kieli, tästä nyt ei riitä luennon aikaa, mutta kielen normalisointi elikkä samat sanat tarkoittaa samoja asioita. Kun me normalisoidaan, me voidaan verrata vaikka, että missä se gap on nyt työmarkkinatarpeen ja taitokertymän välillä ja jälleen antaa lisää suosituksia. Viimeisen vuoden aikana suorita nämä opintojaksot, olet lähempänä. Eli siis tällainen, voisiko sanoa makrotason suosittelu. Vanhat adaptive learning –sovellukset lähti melkein kaikki, että siellä opintojakson sisällä tehtiin korjaavia toimenpiteitä, mutta nyt tavallaan tämä suosittelu, jossa lähdetäänkin opintojaksosta ulos. Nyt tavallaan iso kuvio, mikä mun mielestä on seuraava mielenkiintoinen, on Euroopassa European Data Spaces. Eli pyritään saamaan data liikkumaan eri siilojen välillä ja nimenomaan just riittävän yhteismitallisena. Tässä kun me päästään eteenpäin. Yksi näistä data spaceista on Data Space for Skills. Kun tässä päästään eteenpäin ja saadaan data oikeasti liikkumaan oppilaitosten, vaikka rekryfirmojen, niitten työnantajien, erilaisten valtiollisten toimijoiden, vaikka nyt sitten työkkärin ja opetusministeriöiden välillä ja Euroopanlaajuisesti, ei vaan Suomessa, niin me pystytään alkamaan tekemään aika mielenkiintoisia sekä osaamisen suosituksia että myös alueellisia tarjonta-optimointeja. Koska nythän saattaa hyvin olla, että meillä on Suomessa joku kysyntä, johon Ranskassa onkin vastauksia, ja tällöin me ei olla enää kiinni siinä, että saadaanko me rekrytoitua opettajaa nyt johonkin tiettyyn lokaatioon, jos me voidaankin suosittaa opintojaksoja. Meillähän on kuitenkin Euroopassa tarkoitus päästä kohti yhteensopivampaa ja tää ei ole pelkästään siis tutkintokoulutusjuttu, vaan ennen kaikkea jatkuvan oppimisen juttu. Missä vaiheessa konetekniikan insinöörin tutkinto tarvitsee päivittää, koska siirrytään vaikka kardaanivetoisista autoista sähkömoottoreihin. Tässä on omat vaikutuksensa, ja tätä voidaan simuloida jo etukäteen ja henkilöille voitaisiin antaa jo tänä päivänä tästä suosituksia. Tästä on tosiaan ratkaisuja, mitä nyt sitten Euroopassa on esimerkiksi käytössä. Esimerkkinä voin kertoa, että vaikka meillä on Metropolian vastuun kanssa tällainen kombinaatio, että jos vastuulla on rakennusalan työhakemus sisällä osaamisprofiililla, niin hänelle voidaan Metropoliasta suosittaa opintojaksoja, joilla hän menee eteenpäin urallaan oman tavoitteen suuntaan. Nämä on jo arkipäivää, ja sen takia tämä data space tuo siihen uuden kertoimiin, että me pystytään alkamaan tekemään tätä Euroopan laajuisesti toivottavasti tosi nopeasti.
Hanna Nordlund:
Me ollaan Digivisiossakin monesti puhuttu siitä opettajien osaamisesta ja siitä, että se jatkuvan oppimisen tarve liittyy tietysti opettajiin, ihan niin kuin kaikkiin muihinkin ammattikuntiin. Teknologian nopea kehitys, koko ajan kasvavat erilaiset mahdollisuudet, mitä teknologia tuo ja toisaalta uudet työkalut tarkoittaa sitä, että pitää ottaa haltuun uusia asioita. Tässä me ollaan tänään keskusteltu yhdestä asiasta jälleen. Sellainen opettaja, jolle nyt vähän nousee hiki pintaan, että tekoäly ja taas yksi iso, valtava, paljon mahdollisuuksia luova asia, jonka kanssa kuitenkin pitää olla myös aika hereillä, pitäisi ottaa haltuun, niin minkälaisia rohkaisevia sanoja teillä olisi opettajille tähän liittyen?
Lili Aunimo:
No, jos mä vaikka aloitan. Sanoisin, että kannattaa lähteä kokeilemaan ihan käytännössä ja ottaa joku vaikka yksikin pieni asia per lukukausi, mitä kokeilee. Jos esimerkiksi ei ole vielä luonut vaikka sinne ChatGPT:n tunnuksia, niin lähtee vaikka siitä, että tekee sinne tunnukset ja kokeilee vaikkapa siellä sitten antaa oman kurssinsa tehtävät sille ChatGPT:lle ja katsoo, miten se ChatGPT niistä suoriutuisi. Se voisi olla semmoinen, mistä voisi lähteä liikkeelle ja sitten vaan jakamaan kokemuksia kollegoiden kanssa ja ilman muuta sitten kun meilläkin Haaga-Heliassakin järjestetään paljon opettajille nyt tilaisuuksia liittyen tähän tekoälyyn ja sen hyödyntämiseen opetuksessa, niin kannattaa niihin osallistua sitten aktiivisesti myös.
Hanna Nordlund:
Miten, Harri, sun rohkaisevat sanat?
Harri Ketamo:
Tilaisuudet on ihan loistavia, mutta mä lähtisin vielä enemmän perusteista. Käykää jokainen, joka ette ole vielä tehnyt, niin tekemässä tai tehkää oma osaamis-CV osaamisina. Ja mä väittäisin, että jokaisella opettajalla, joka on korkeakoulututkinnon suorittanut, eli esimerkiksi tilastotieteen perusteet, tutkimuksen tekemisen perusteet, hyvin paljon sellaista materiaalia, joka itse asiassa on ihan sata prosenttia samoja osaamisia, mikä on vaikka tekoälypäättelyn osaamista. No, se on ihan yksi yhteen tilastollisen päättelyn kanssa. Pikkaisen vaan enemmän muuttujia, pikkaisen enemmän, jos ruutupaperille vääntäisi, niin tarvittaisiin pari rekkalastillinen paperia. Mutta siis mikään peruste ei muutu. Ja kun tämän tavallaan jäsentää itselleen. Lähteekin siitä, että itse asiassa joka ikinen tekoäly voidaan palauttaa IF-logiikoiksi tai transistorilogiikoiksi, niin tämä tietyllä tavalla täytyy pitää mielessä. Jokaisella opettajalla on hirvittävän hyvä pohja, jos vaan miettii, että mitä osaamista mulla on jo tältä alalta. Sen jälkeen taas mennään tuohon, että no mitä multa puuttuu, niin niitä sitten askel kerrallaan eteenpäin. Mutta tärkeintä on ymmärtää, että ei kukaan opettaja pihalla tästä ole, koska opettajaksi ei voi pätevöityä suorittamatta tiettyjä kriittisiä perusteita. Tämä olisi mun sellainen lähtökohta. Teillä on osaaminen, nyt vaan tehdään.
Hanna Nordlund:
Osaaminen on ja rohkeasti kokeilemaan, niin se olisi teidän vinkit. Kiitos Lili ja Harri, tästä vierailusta. Mä olisin voinut jutella teidän kanssa vielä vaikka mistä. Mutta ehkä mä vetäisin tätä meidän keskustelua yhteen sillä tavalla, että niin kun Harri sanoit että tää on asia, joka on ollut tosi kauan olemassa. Nyt sitten se on viimeistään tässä vaiheessa ikään kuin noussut tosi laajaan tietoisuuteen. Valtavasti mahdollisuuksia, mutta samalla pitää kuitenkin olla hereillä, säilyttää kriittinen ajattelu, ymmärtää kuitenkin, mitä on tekemässä, kun lähtee tekoälyn kanssa toimimaan. Haluan lopettaa Lilin loistavaan ajatukseen siitä, että ajattelua me ei voida koskaan ulkoistaa. Tämä oli tällä kertaa viimeinen jakso Oppimisen Seuraava Luku –podcastia, mutta keskustelua voi tietenkin aina jatkaa tästä ja muistakin oppimisen tulevaisuuteen liittyvistä aiheesta hashtagilla Digivisio2030. Mä olen Hanna Nordlund, ja tämä oli Oppimisen Seuraava Luku.