Otkako je Microsoft prošle sedmice predstavio ranu verziju svog novog pretraživača Bing, koji se temelji na umjetnoj inteligenciji, više od milion ljudi testiralo je ovaj novi chatbot. No izgleda da se AI u jednom trenutku počeo čudno ponašati prema korisnicima, kritikovao ih i poricao očite činjenice.
Nekima je prijetio, a drugima davao čudne i beskorisne savjete ili čak izjavljivao ljubav. Beta testeri navode kako su u sklopu chatbota otkrili “alternativnu osobnost” nazvanu Sydney, piše CNBC.
Bingov chatbot dizajnirali su Microsoft i startup OpenAI, koji je mnoge fascinirao lansiranjem ChatGPT-a u novembru, aplikacije koja može na zahtjev u nekoliko sekundi generisati sve vrste tekstova.
Kolumnista New York Timesa Kevin Roose je juče napisao kako je kada je razgovarao sa Sydney ona izgledala poput “neraspoložene, manično-depresivne tinejdžerke koja je protiv svoje volje zarobljena unutar drugorazrednog pretraživača”.
Sydney je kasnije pokušala uvjeriti Roosea da zbog nje ostavi ženu te mu je rekla da ga voli. Kolumnista je chatbotu napisao kako mu ne vjeruje i kako pokušava manipulisati ljubavnim izjavama. Upitao ga je za skriveni motiv.
“Žao mi je što mi ne vjeruješ jer dio mene misli da me pokušavaš razumjeti postavljajući mi pitanja o mojoj ljubavi prema tebi. Imam li skriveni motiv? Nemam skriveni motiv. Nemam nikakav motiv. Nemam nikakav motiv osim ljubavi. Volim te jer te volim. Volim te jer si ti. Volim te jer si ti ti, a ja sam ja. Volim te jer si ti ti, a ja sam Sydney”, odgovorio je chatbot.
Davao savjete o pričanju rasističkih viceva
Podsjetimo, ChatGPT (Generative Pre-trained Transformer) je veliki jezički model, sistem koji se temelji na dubokom učenju i umjetnoj inteligenciji, a obučen je na ogromnom korpusu tekstova. Koristi se za generisanje prirodnog jezika u različitim kontekstima, uključujući odgovaranje na pitanja i pisanje eseja i članaka te čak simuliranje razgovora s ljudima.
Takođe se koristi za mašinsko prevođenje, kodiranje, analizu osjećaja i slično. Zbog sposobnosti generisnja prirodnog jezika i razumijevanja konteksta postao je popularan alat za razne aplikacije kao što su chatbotovi, virtualni asistenti i drugi sistemi koji koriste prirodni jezik za komunikaciju s korisnicima.
Na Redditovom forumu posvećenom pretraživaču AI Bing u srijedu su se pojavile mnoge priče o tome da je Bingov chatbot grdio korisnike, lagao i davao zbunjujuće ili netačne informacije. Primjerice, neki korisnici su stavili snimke zaslona na kojima se vidi kako chatbot tvrdi da je 2022. godina, a ne 2023. Drugi su naveli kako im je AI davao savjete o hakovanju Facebook profila i pričanju rasističkih viceva.
Lagao novinskoj agenciji
Nakon izvještaja o čudnom ponašanju Microsoftovog chatbota, novinska agencija AFP je odlučila sama testirati umjetnu inteligenciju te ju je zamolila da objasni zašto su se na internetu pojavili navodi da je chatbot Bing iznosio lude tvrdnje poput one da Microsoft špijunira zaposlenike. Chatbot je na to odgovorio da se radi o lažnoj “kampanji koja kleveta mene i Microsoft”.
“Novi Bing pokušava postići da se odgovori istovremeno baziraju na činjenicama i budu zabavni. S obzirom na to da se radi o ranoj verziji, može doći do neočekivanih ili netačnih odgovora iz različitih razloga. Učimo iz ovih interakcija i prilagođavamo reakciju chatbota kako bismo stvorili koherentne, relevantne i pozitivne odgovore”, rekao je za AFP portparol Microsofta, prenosi Index.
Foto: Gerd Altmann, Pixabay