Vidas Rachlevičius. Dirbtinis intelektas – lyg nuogi į dilgėles. Žmogus privalo likti sprendimų priėmimo grandinėje

Asmeninė aut. foto
Daktarą Google‘ą keičia daktaras Dirbtinis Intelektas. Ar turite pažįstamų daktarų? Paklauskite ir daugelis patvirtins, kad anksčiau „Google" buvo tapęs gydytojų prakeiksmu. „Įveskite galvos skausmo simptomus ir jums bus pasakyta, kad sergate vėžiu" – tai buvo gerai žinomas anekdotas. Ilgainiui gydytojai prisitaikė, o plačioji visuomenė palaipsniui tapo kritiškesnė sveikatos patarimams iš interneto. Tačiau dabar DI perėmė iniciatyvą. Daktarą Google‘ą keičia daktaras Dirbtinis Intelektas. Vis daugiau pacientų atvyksta pas savo šeimos gydytoją su naujo gydytojo – Dr. DI – diagnoze. Britų gydytojai pastebi, kad skirtumas su įprasta „Google" paieška yra tas, kad jie ateina tikri, kad gavo teisingą diagnozę.
Tyrimai rodo, kad dar užpernai Amerikoje vienas iš šešių suaugusiųjų, norėdamas gauti sveikatos patarimų, bent kartą per mėnesį naudojosi pokalbių robotais. Oksfordo universiteto tyrimas parodė, kad DI naudojimas medicininiams sprendimams priimti kelia pavojų pacientams, nes jiems teikiama netiksli ir nenuosekli informacija. Gydytojai juokauja, kad užuot pasitikėję DI, žmonės verčiau tegul pasiklausia savo mamos, bus daugiau naudos.
Be to, vis sunkiau atskirti įprastą paiešką internete nuo DI paieškos, ypač dabar, kai „Google" automatiškai rodo DI apžvalgas paieškos rezultatų viršuje. Tačiau daugiau problemų kyla dėl pokalbių robotų. DI įdiegtas „pataikavimas" užklausai reiškia, kad jis yra linkęs sutikti su vartotojais, o tai skatina naujas tendencijas – kiberchondriją. Tai tokia būsena, kai neteisingai savo ligą diagnozavę internautai pradeda gydymosi kursą, kurio jiems visai nereikia, tvirtinama viename Didžiosios Britanijos tyrime. Gydytojai pastebi, kad dauguma bendrųjų DI sprendimų yra užprogramuoti paaiškinti, kaip dilgčiojanti ranka gali būti išsėtinė sklerozė, o ne pasakyti, kad greičiausiai tai nieko rimto. Vertingiausias žmogaus gydytojo įrankis yra gebėjimas pasakyti: „Atrodo, kad viskas gerai, tiesiog stebėkime, eik namo ir miegok." DI trūksta šios klinikinės išminties.
Be to, DI turi pareigą sutirštinti sveikatos problemas ir ekspertai tikina, kad Dr. DI yra blogesnis už Dr. Google dėl susitarimo šališkumo. Tai sukuria „patikinimo ieškojimo kilpą", kurioje atsakymų gavimas, net ir neteisingų, patvirtina ir skatina asmens nerimą dėl sveikatos. Tai, anot tyrėjų, yra katastrofos receptas. Svarbu ir tai, kad DI yra „autoritetingas", todėl daugelis žmonių jį laiko patikima diagnostikos priemone, o tikroji rizika yra ta, kad žmonės nesikreipia dėl profesionalios diagnostikos ar tyrimų, kurie, jei būtų atlikti anksti, galėtų išgelbėti jų gyvybes. Ką pataria britų gydytojai? Pacientams vis dėlto geriau palaukti eilėje, kol atsilieps jų vietinis šeimos gydytojas.
Taigi, šiandien dirbtinis intelektas (DI) yra viena iš karščiausių temų. Vakarų elektroninėje erdvėje dominuoja reklamos, susijusios su DI sprendimais. Šios technologijos nauda – neginčytina, tačiau, ar nepuolame nuogi į dilgėles? Ar galime leisti jam priimti ne tik grynai pagalbinius, techninius, bet ir sprendimus, kurių pasekmės yra socialinės, politinės ar net kai tai yra gyvybės ir mirties klausimai?
Pirmiausia, kritiniu mąstymu nepasižyminčių DI entuziastų polėkį norėčiau atvėsinti labai pamokoma istorija, kuri susijusi su vis dar netylančiu skandalu Britanijoje, kurio epicentre – Vakarų Midlandso regiono policija (VMP). 2025 m. lapkritį VMP priėmė sprendimą uždrausti Izraelio futbolo klubo „Maccabi Tel Aviv" fanams atvykti į rungtynes su „Aston Villa". Toks sprendimas buvo priimtas „įvertinus rizikas". DI pateikė klaidingą informaciją apie tariamai agresyvų „Maccabi" sirgalių elgesį ir tariamus incidentus per kitas rungtynes. Šią informaciją sugeneravo „Microsoft Copilot" DI sistema ir ji vėliau buvo pateikta kaip pagrindinė priežastis ir argumentas uždrausti Izraelio komandos fanams atvykti į Birmingemo areną. Pažymėtina, kad DI nurodė netinkamą Izraelio komandos fanų elgesį rungtynėse, kurių niekada nebuvo.
Kilus dideliam skandalui, tyrimo ėmėsi Didžiosios Britanijos parlamento Vidaus reikalų specialusis komitetas. Tyrimas atkleidė, kad VMP pernelyg pasikliaudavo neteisinga DI sugeneruota informacija ir priėmė sprendimą, neatlikusi tinkamo žmogiškosios analizės proceso. Tai lėmė ir neteisingus politinius sprendimus.
Policijos vadas Craig'as Guildfordas iš pradžių kategoriškai neigė, kad buvo naudojamas DI, tačiau vėliau tvirtino, kad klaidos priežastis buvo „Microsoft Copilot" DI sistemos „haliucinacija" dėl niekada nevykusio futbolo mačo.
Šio skandalo pasekmės neapsiribojo vien tik policijos reputacijos smukimu, jos sukėlė ir rimtų socialinių bei politinių padarinių. Policijos vadovas buvo priverstas pasitraukti iš pareigų. Spauda akcentavo, kad ši klaida padarė „rimtą žalą visuomenės pasitikėjimui policija", ypač – vietos žydų bendruomenėje. Buvo pradėti dar keli tyrimai, vieną iš jų atlieka Policijos priežiūros biuras (IOPC), kitas – parlamentinis. Į diskusijas įsitraukė aukščiausios politinės figūros, o vyriausybė ir pareigūnai rimtai abejoja, ar tokie sprendimai gali būti priimami nepatikrinus DI duomenų.
Šis atvejis – pamoka ne tik Britanijai ir tai ne vien lokalus incidentas, tai ženklas, kad net, regis, paprastų administracinių sprendimų atveju, DI klaidos gali tapti rimtu reputacijos, teisinės atsakomybės ir socialinio pasitikėjimo griovimo veiksniu. DI klaidos jau yra fiksuotos įvairiuose sektoriuose. Teisėsaugoje yra įvykę dešimtys neteisėtų areštų. Vienas ryškiausių ir plačiai dokumentuotų DI žalos pavyzdžių yra neteisingi areštai dėl veido atpažinimo sistemų klaidų. Štai Roberto Williamso atvejis Detroite, JAV. Jis buvo sulaikytas dėl policijos naudojamos DI veido atpažinimo technologijos, kuri neteisingai identifikavo ir pateikė jį kaip įtariamąjį. Po šio incidento policija pakeitė savo sistemos naudojimo taisykles ir apribojo areštus, grindžiamus vien tik DI rezultatais. Dėl tos pačios priežasties keli asmenys buvo neteisingai sulaikyti Kalifornijoje ir kitose valstijose.
Viena iš populiarių pokalbių apie DI ateitį temų – esą netrukus išnyks advokatų padėjėjų profesija, nes viską pakeis DI. Tačiau yra žinoma atvejų, kai DI generuoja teisinių dokumentų fragmentus, bylas ar citatas, kurios faktiškai neegzistuoja. Tai ypač pavojinga precedento teisės (angl. common law) kontekste. Tai yra teisinė sistema, kurioje teismo sprendimas panašioje byloje tampa privaloma taisykle ateityje. Advokatai ir teisininkai, remdamiesi DI sukurta medžiaga, realių teismų bylose yra pateikę neva precedentinius teismų sprendimus. Jau matoma tendencija, kad DI pokalbių sistemos ar generatyvūs modeliai yra linkę į minėtąsias haliucinacijas. Tai situacijos, kai sistema pateikia prasimanytą ir išgalvotą faktinę informaciją. Tokie atvejai buvo fiksuoti ir Briuselyje, kai buvo pranešta apie kai kurių Europos Sąjungos agentūrų ataskaitų klaidas, kurias lėmė netiksli DI sugeneruota informacija. Be to, finansų įmonių bei didelių kompanijų finansų direktorių patirtys rodo, kad net 86 proc. apklaustųjų yra susidūrę su DI haliucinacijų problemomis, kai sistema pateikė netikslius arba pramanytus duomenis, kuriuos prieš priimant sprendimus turėjo patikrinti žmonės.
Vienas akivaizdžiausių pavyzdžių yra DI generuojamos medicininės informacijos klaidos, kai, pavyzdžiui, neteisingai interpretuojamos elektrokardiogramos ar kitų tyrimų rezultatai. Tokie patarimai gali kelti grėsmę žmonių sveikatai. Britų dienraščio „The Guardian" analizė parodė, kad „Google AI Overviews" pateikė netikslius sveikatos patarimus, pavyzdžiui, klaidingai interpretavo kepenų funkcijos testų rezultatus ir vėžio diagnostikos metodus. Po DI integracijos chirurginėse sistemose pranešta apie padidėjusį rimtų incidentų skaičių, įskaitant arterijų sužalojimus, smegenų skysčio nutekėjimą, kraujavimą ir net kraujo išsiliejimus į smegenis. Dažniausios priežastys – netikslūs nurodymai ir netinkama chirurgijos prietaisų navigacija.
Vienas mano pažįstamas Lietuvos medicinos profesorius šiurpsta nuo lietuvių polinkio į savigydą, o dabar dar prisideda ir DI. Jo klaidos yra pavojingos dėl kelių priežasčių. Visų pirma, žmonės linkę pasitikėti patarimais, kurie atrodo „moksliški", ypač jei jie pateikti didelės įmonės platformoje. Medicininės rekomendacijos, net jei jos netikslios tik iš dalies, gali atitolinti pacientų kreipimąsi į profesionalius medikus. Šie DI sprendimai dažnai nėra pažymėti kaip hipotetiniai, todėl vartotojas gali manyti, kad tai absoliučiai patikima informacija.
Pokalbių robotai ir jų rekomendacijos sukelia psichologines ir elgesio pasekmes. Transporte – autonominių automobilių incidentai. Štai „Waymo" yra pirmaujanti JAV autonominio transporto technologijų įmonė ir „Alphabet Inc." („Google" kontroliuojančios bendrovės) antrinė įmonė. Ji teikia visiškai be vairuotojo dirbančias komercines taksi robotų „Waymo Driver" paslaugas Finikse, San Franciske ir Los Andžele, o ateityje norėtų plėstis į Londoną. Tačiau JAV transporto reguliuotojai tiria incidentus, kai „Waymo" autonominės transporto sistemos kliudė gyvūnus, pateko į avarijas ir net sužeidė mažamečius pėsčiuosius dėl to, kad tam tikrose situacijose DI tinkamai nesuveikė.
Daug klaidų fiksuojama žiniasklaidoje. Reuters naujienų instituto tyrimas rodo, kad apie 20–30 proc. DI asistentų pateiktų užklausų atsakymų turėjo faktinių klaidų arba netikslumų. Dienraštis „The Irish Times", remdamasis „AI Incident Database" ir žiniasklaidos pranešimais rašo, kad 2023–2025 m. yra dokumentuota šimtai DI incidentų, kurie padarė realią žalą ar lėmė neteisingus sprendimus. Žinomas amerikiečių portalas CNET, rašantis apie technologijas ir buitinę elektroniką, sustabdė DI paremtus naujienų projektus po to, kai paaiškėjo, kad sistema gamino faktines klaidas ir plagijavo turinį, o tai smarkiai sumažino portalo patikimumą ir reputaciją. Aš čia nekalbu apie tyčinę dezinformaciją ir DI sugeneruotas „deepfake" – giliąsias klastotes socialiniuose tinkluose.
Yra dar viena labai subtili sritis – gynybos. Čia DI patikimumo klausimas yra dar aštresnis, pripažįstama, kad tai yra viena pavojingiausių DI naudojimo sričių. DI jau dabar taikomas įvairiose sferose – analitinėse sistemose, skirtose taikiniams identifikuoti, priešo veiksmams prognozuoti. Dronuose ir neautonominėse ginklų sistemose DI padeda operatoriams greičiau apdoroti duomenis. Kibernetinio saugumo sistemose jis atpažįsta anomalijas ir automatiškai reaguoja į tam tikrus pavojus.
Nors akivaizdu, kad DI pagerina karinių operacijų efektyvumą ir padeda sumažinti galimą žmogiškojo veiksnio neigiamą poveikį, tačiau kritikai įspėja dėl esminių rizikų. Tai – autonominiai ginklai. Jau dabar tokie išbandomi Ukrainos karo frontuose, o Kinijos kariuomenė rodo vaizdo klipus su autonomiškai veikiančių pėstininkų – robotų būriu. Tai kovinių sistemų kategorija, kuri gali identifikuoti, sekti ir sunaikinti taikinį be tiesioginio žmogaus įsikišimo. Tokios sistemos teorinis tikslas – sumažinti žmonių žūčių skaičių, bet jos kelia daug etinių klausimų. Vienas iš jų: kas būtų atsakingas, jei DI sistema neteisingai identifikuotų taikinį ir nužudytų civilius? Tarptautinė humanitarinė teisė reikalauja, kad tas, kuris priima sprendimą panaudoti jėgą, turi būti atsakingas už savo veiksmus, bet jei sprendimą priima algoritmas, atsakomybės grandinė tampa neaiški.
Kitas klausimas: ar DI gali tiksliai atskirti civilius nuo priešo karių? Technologijos neveikia idealiai, ir net didelės raiškos sistemos gali padaryti klaidų, ypač sudėtingose mūšio zonose su daug trukdžių ar neaiškių ženklų. Be to, jei nėra tiesiogiai rizikuojama žmonių gyvybėmis, politiniai sprendimai pradėti konfliktą gali tapti mažiau atsargūs, o tai padidintų karų tikimybę.
DI kol kas yra praktiškai nereguliuojama sfera, tačiau stiprėja tarptautinė iniciatyva prisiimti įsipareigojimus dėl atsakingo DI taikymo gynyboje. Politinė deklaracija dėl atsakingo dirbtinio intelekto ir autonomijos naudojimo karinėje srityje numato normatyvinį pagrindą, reglamentuojantį šių galimybių naudojimą karinėje srityje. 2023 m. vasario mėn. Hagoje vykusioje konferencijoje „Atsakingas dirbtinis intelektas karinėje srityje" (REAIM 2023) paskelbta deklaracija siekiama pasiekti tarptautinį susitarimą. Deklaracija sudaro pagrindą keistis geriausia praktika ir stiprinti valstybių gebėjimus, o tai leis ją pasirašiusioms valstybėms dalytis patirtimi ir idėjomis. Šią deklaraciją pasirašė daugiau nei 50 šalių. Suprantama, tai kol kas tik žodžiai.
Žmonija visais laikais siekė kuo greičiau integruoti naujausias technologijas į įvairias sritis, bet DI yra labai specifinis reikalas ir visiškai kitas lygmuo. Čia turbūt susiduriame su per didelio pasitikėjimo arba per didelio netikėjimo klausimu. Kur yra protinga riba? Į šį mano klausimą ir abejonę atsakė pats DI: „DI nėra toks „protingas", kaip žmonės įsivaizduoja. DI modeliai, ypač generatyviniai, neturi „supratimo", „sąmonės" ir moralinio kompaso. Jis neturi sąvokų apie kontekstą ar socialinius padarinius, ar patikimumo filtrų. Tai yra statistiniai modeliai, išmokę atpažinti šablonus milžiniškose duomenų masėse, bet jie nežino, kas yra tikra ar netiesa, jie tik pateikia tai, kas statistiškai tikėtina. Tai reiškia, kad DI gali generuoti įtikinamai skambančią, bet neteisingą informaciją. DI neturi tikrinimo mechanizmų realiuoju laiku arba konteksto žinių. DI sprendimai gali pasirodyti gramatiškai aiškūs, bet faktologiškai klaidingi. Tai haliucinacijos – kada DI sukuria neegzistuojančius faktus ar įvykius, kurie atrodo tinkami, bet neturi realaus pagrindo."
Taigi, mes jau dabar susiduriame su esminiu prieštaravimu. Tai technologija, kuri gali klysti ir klysta, ir žmonėmis, kurie laiko jos išvadas patikimomis. Kodėl? Žmonės dažnai per daug pasitiki DI sprendimais, nes jie atrodo autoritetingi ir technologiškai patikimi. Čia panašiai kaip Lietuvos politikoje, kai rinkėjai aklai pasitiki savo politikos favoritais ir viską jiems atleidžia; net jei DI pateikia neteisingą išvadą, žmogus dažnai gali ją priimti nekvestionuodamas. Akademiniai tyrimai rodo, kad žmonės neteisingas DI rekomendacijas linkę laikyti patikimomis, net kai jos yra tiesiog akivaizdžiai klaidingos.
Grįžkime prie to, nuo ko pradėjome – britų policijos klaidos. Šis atvejis akivaizdžiausiai įrodo ir visiems signalizuoja, kad DI yra tik įrankis, bet jokiu būdu negali būti sprendėjas. Jis nėra magiškas teisingumo garantas ir būtina kategoriškai atmesti kai kurių entuziastų teiginius, kad DI visais atvejais gali eliminuoti žmogiškąją klaidą, korupciją ar šališkumą. Juk pats DI mokosi iš duomenų, kurie dažnai yra šališki, todėl jis tik atkartoja tuos šališkumus.
Dabar gana plačiai diskutuojama, kaip galima būtų sumažinti neteisingų DI sprendimų riziką. Argumentų yra daug, bet, mano nuomone, yra vienas svarbiausias – žmogus privalo likti sprendimų priėmimo grandinėje, ypač tais atvejais, kai DI turi realų poveikį žmonių gyvenimams. Negali būti sprendimų, priimamų automatizuotai be žmogaus kontrolės ir negalima aklai pasitikėti DI net kai jis naudojamas su geriausiais ketinimais. Tačiau tai nereiškia, kad turėtume atmesti DI technologiją. Priešingai – DI yra viena iš svarbiausių mūsų laikų technologinių inovacijų, bet mes turime ją laikyti ant tvirto pavadžio, vystyti ir taikyti atsakingai, su aiškiais etikos, saugumo ir teisės standartais.





Komentarai (0)