Professori Yoshua Bengio One Young World -huippukokouksessa Montrealissa, Kanadassa, perjantaina 20. syyskuuta 2024
Kuuluisa tietotekniikan tutkija Yoshua Bengio – tekoälyn edelläkävijä – on varoittanut syntymässä olevan teknologian mahdollisista kielteisistä vaikutuksista yhteiskuntaan ja vaatinut lisää tutkimusta sen riskien vähentämiseksi.
Bengio, Montrealin yliopiston professori ja Montreal Institute for Learning Algorithms -instituutin johtaja, on voittanut useita palkintoja työstään syväoppimisessa, tekoälyn osajoukossa, joka yrittää jäljitellä ihmisen aivojen toimintaa oppiakseen tunnistamaan monimutkaisia. mallit tiedoissa.
Mutta hän on huolissaan tekniikasta ja varoitti, että jotkut ihmiset, joilla on “paljon voimaa”, saattavat jopa haluta katso ihmiskunnan korvautuvan koneilla.
“On todella tärkeää heijastaa itsemme tulevaisuuteen, jossa meillä on koneita, jotka ovat monessa suhteessa yhtä älykkäitä kuin me, ja mitä se merkitsisi yhteiskunnalle”, Bengio kertoi CNBC:n Tania Bryerille One Young World Summitissa Montrealissa.
Hän sanoi, että koneilla voi pian olla suurin osa ihmisten kognitiivisista kyvyistä – yleinen tekoäly (AGI) on eräänlainen tekoälyteknologia, joka pyrkii tasoittamaan tai parantamaan ihmisen älyä.
“Älykkyys antaa vallan. Kuka siis hallitsee sitä valtaa?” hän sanoi. “Järjestelmät, jotka tietävät enemmän kuin useimmat ihmiset, voivat olla vaarallisia väärissä käsissä ja lisätä epävakautta esimerkiksi geopoliittisella tasolla tai terrorismia.”
Rajallisella määrällä organisaatioita ja hallituksia on Bengion mukaan varaa rakentaa tehokkaita tekoälykoneita, ja mitä suurempia järjestelmät ovat, sitä älykkäämpiä niistä tulee.
“Näiden koneiden rakentaminen ja kouluttaminen maksaa miljardeja [and] hyvin harvat organisaatiot ja hyvin harvat maat pystyvät siihen. Näin on jo”, hän sanoi.
“Tulee keskittymään valta: taloudellinen valta, joka voi olla haitallista markkinoille; poliittinen valta, joka voi olla haitallista demokratialle; ja sotilaallinen valta, joka voi olla haitallista planeettamme geopoliittiselle vakaudelle. Joten paljon avoimia kysymyksiä, joita meidän on tutkittava huolellisesti ja aloitettava lieventäminen mahdollisimman pian.”
Meillä ei ole menetelmiä varmistaaksemme, etteivät nämä järjestelmät vahingoita ihmisiä tai käänny ihmisiä vastaan… Emme tiedä, miten se tehdään.
Yoshua Bengio
Montreal Institute for Learning Algorithms -instituutin johtaja
Tällaiset tulokset ovat mahdollisia vuosikymmenten sisällä, hän sanoi. “Mutta jos siitä on viisi vuotta, emme ole valmiita… koska meillä ei ole menetelmiä varmistaaksemme, etteivät nämä järjestelmät vahingoita ihmisiä tai käänny ihmisiä vastaan… Emme tiedä miten se tehdään”, hän lisäsi. .
On argumentteja, jotka viittaavat siihen, että tekoälykoneiden nykyinen koulutus “johtaisi järjestelmiin, jotka kääntyvät ihmisiä vastaan”, Bengio sanoi.
“Lisäksi on ihmisiä, jotka saattavat haluta väärinkäyttää tätä valtaa, ja on ihmisiä, jotka saattavat olla iloisia siitä, että ihmiskunta korvataan koneilla. Tarkoitan, se on reuna, mutta näillä ihmisillä voi olla paljon valtaa, ja he voivat. tee se, ellemme laita oikeita suojakaiteita juuri nyt”, hän sanoi.
Tekoälyn ohjaus ja säätö
Bengio hyväksyi kesäkuussa avoimen kirjeen, jonka otsikkona oli: “Oikeus varoittaa kehittyneestä tekoälystä.” Sen allekirjoittivat Open AI:n nykyiset ja entiset työntekijät – yritys, joka on viraalisen AI-chatGPT:n takana.
Kirje varoitti tekoälyn etenemiseen liittyvistä “vakavista riskeistä” ja kehotti tutkijoita, päättäjiä ja yleisöä ottamaan ohjeita niiden lieventämiseen. OpenAI on ollut viime kuukausien aikana kasvavien turvallisuusongelmien kohteena, ja sen “AGI Readiness” -tiimi hajotettiin lokakuussa.
“Ensimmäinen asia, joka hallitusten on tehtävä, on sääntely, joka pakottaa [companies] rekisteröityä, kun he rakentavat näitä rajajärjestelmiä, jotka ovat kuin suurimmat, ja joiden kouluttaminen maksaa satoja miljoonia dollareita”, Bengio sanoi CNBC:lle. “Hallituksen pitäisi tietää missä ne ovat, tiedäthän näiden järjestelmien erityispiirteet.”
Koska tekoäly kehittyy niin nopeasti, hallitusten on oltava “hieman luovia” ja laadittava lainsäädäntöä, joka mukautuu teknologian muutoksiin, Bengio sanoi.
Ei ole liian myöhäistä ohjata yhteiskuntien ja ihmiskunnan kehitystä positiiviseen ja hyödylliseen suuntaan.
Yoshua Bengio
Montreal Institute for Learning Algorithms -instituutin johtaja
Tekoälyä kehittävien yritysten on tietotekniikan tutkijan mukaan myös vastuussa teoistaan.
“Vastuu on myös toinen työkalu, joka voi pakottaa [companies] käyttäytyä hyvin, koska… jos kyse on heidän rahoistaan, oikeuteen joutumisen pelko – se saa heidät tekemään asioita, jotka suojelevat yleisöä. Jos he tietävät, että heitä ei voida haastaa oikeuteen, koska tällä hetkellä se on eräänlainen harmaa vyöhyke, he eivät välttämättä käyttäydy hyvin”, hän sanoi.[Companies] kilpailevat keskenään, ja he ajattelevat, että ensimmäinen, joka saapuu AGI:lle, hallitsee. Joten se on kilpailu ja se on vaarakilpailu.”
Lainsäädäntöprosessi tekoälyn turvalliseksi tekemiseksi on samanlainen kuin tapoja, joilla sääntöjä kehitettiin muille tekniikoille, kuten lentokoneille tai autoille, Bengio sanoi. “Jotta voimme nauttia tekoälyn eduista, meidän on säänneltävä. Meidän on laitettava [in] suojakaiteet. Meillä on oltava demokraattinen valvonta teknologian kehittämisestä”, hän sanoi.
Väärää tietoa
Väärininformaation leviäminen erityisesti vaalien ympärillä on kasvava huolenaihe tekoälyn kehittyessä. Lokakuussa OpenAI ilmoitti häirinneensä “yli 20 toimintaa ja petollista verkkoa eri puolilta maailmaa, jotka yrittivät käyttää mallejamme”. Näitä ovat muun muassa väärennettyjen tilien sosiaaliset viestit, jotka on luotu ennen vaaleja Yhdysvalloissa ja Ruandassa.
“Yksi suurimmista lyhyen aikavälin huolenaiheista, mutta yksi, joka kasvaa, kun siirrymme kohti tehokkaampia järjestelmiä, on disinformaatio, väärä tieto, tekoälyn kyky vaikuttaa politiikkaan ja mielipiteisiin”, Bengio sanoi. “Kun etenemme, meillä on koneita, jotka voivat tuottaa realistisempia kuvia, realistisempia äänijäljitelmiä ja realistisempia videoita”, hän sanoi.
Tämä vaikutus saattaa ulottua vuorovaikutukseen chatbottien kanssa, Bengio sanoi viitaten italialaisten ja sveitsiläisten tutkijoiden tutkimukseen, joka osoittaa, että OpenAI:n GPT-4 suuri kielimalli voi saada ihmiset muuttamaan mieltään paremmin kuin ihminen. “Tämä oli vain tieteellinen tutkimus, mutta voitte kuvitella, että on ihmisiä, jotka lukevat tätä ja haluavat tehdä tämän häiritäkseen demokraattisia prosessejamme”, hän sanoi.
“Vaikein kysymys kaikista”
Bengio sanoi, että “vaikein kysymys kaikista” on: “Jos luomme kokonaisuuksia, jotka ovat meitä älykkäämpiä ja joilla on omat tavoitteensa, mitä se tarkoittaa ihmiskunnalle? Olemmeko vaarassa?”
“Nämä ovat kaikki erittäin vaikeita ja tärkeitä kysymyksiä, eikä meillä ole kaikkia vastauksia. Tarvitsemme paljon enemmän tutkimusta ja varotoimia mahdollisten riskien vähentämiseksi”, Bengio sanoi.
Hän kehotti ihmisiä toimimaan. “Meillä on tahdonvapaus. Ei ole liian myöhäistä ohjata yhteiskuntien ja ihmiskunnan kehitystä positiiviseen ja hyödylliseen suuntaan”, hän sanoi. “Mutta sitä varten tarvitsemme tarpeeksi ihmisiä, jotka ymmärtävät sekä edut että riskit, ja tarvitsemme tarpeeksi ihmisiä työskentelemään ratkaisujen parissa. Ja ratkaisut voivat olla teknisiä, ne voivat olla poliittisia … politiikkaa, mutta tarvitsemme tarpeeksi ponnistuksia noihin suuntiin juuri nyt”, Bengio sanoi.
– CNBC:n Hayden Field ja Sam Shead osallistuivat tähän raporttiin.