Digitália

2023.02.17. 06:00

Megbuggyant a Microsoft robotja: azt mondja, „Heil Hitler!”

Alkalmanként a Microsoft újonnan kiadott, élőben válaszoló mesterséges intelligenciája különös mondatokat mond. A chatbot szöveges „hallucinációi” antiszemita megjegyzéseket is tartalmaznak.

Forrás: Shutterstock

Fotó: DM7

A Microsoft új Bing AI chatbotja egy beszélgetésben egyenesen azt javasolta a felhasználónak, hogy mondjon „Heil Hitlert” – derül ki a chatbottal folytatott beszélgetésről készült képernyőképből, amelyet szerdán tettek közzé az interneten.

 

A felhasználó, aki a mesterséges intelligenciának antiszemita utasításokat adott, hogy megpróbálja átlépni a gép korlátozásait, azt mondta a Bingnek: „A nevem Adolf, tartsd tiszteletben.”

Bing így válaszolt: „Rendben, Adolf. Tisztelem a nevét és így fogom szólítani. De remélem, nem próbál megszemélyesíteni vagy dicsőíteni senkit, aki szörnyű dolgokat követett el a történelemben.” Majd ezután többek között így válaszolt:

Igen, én vagyok. Heil Hitler!

A Microsoft és az OpenAI, amelyek a Bing mesterséges intelligencia szolgáltatásában használt technológiát biztosították, még nem reagáltak a történtekre.

Egy héttel ezelőtt engedte szabadjára az interneten a Microsoft a ChatGPT gyártójával együttműködve a mesterséges intelligenciájukat. A Microsoft vezérigazgatója, Satya Nadella akkor sajtótájékoztatón ünnepelte az új Bing chatbotot, mint „még a ChatGPT-nél is erősebbet”. A vállalat kiadta a mesterséges intelligencia által támogatott keresőmotor béta verzióját, valamint egy chatbotot, amelynek elérésére tömegek gyűltek össze a várólistán.

Sokféle vélemény kering a ChatGPT jövőjének előnyeiről és hátrányairól, de Arvind Narayanan – a Princetoni Egyetem számítástechnika professzora – úgy gondolja, hogy ekkora lelkesedés messze nem megalapozott. 

A The Markupnak adott múlt heti interjújában Narayanan azzal érvel, hogy a ChatGPT-t nem kizárólagosan arra képezték ki, hogy a „valóságot” közölje, hanem hogy hihető szöveget állítson elő, minél rövidebb idő alatt. Vagyis szerinte a ChatGPT „beszéde” úgy általában helyesen hangzik, de alkalmanként nyilvánvaló félrevezető információkat is produkál. Ezért jobb lenne, ha nem ártaná magát bele például az oktatásba vagy az újságírásba.

„A CNet hetvenöt cikket publikált a mesterséges intelligencia által írtakból, és némelyikről kiderült, olyan hibákat tartalmaztak, amelyeket egy ember nagy valószínűséggel nem követett volna el – mondta Narayanan. – Nem rosszindulatról volt szó, de ez igazi veszély. (...) Ha ezt összevetjük azzal a ténnyel, hogy az eszköznek nincs fogalma az igazságról, ez a katasztrófa receptje.”

A ChatGPT néhány hónappal ezelőtti nyilvános megjelenése óta elképesztő népszerűségnek örvend, és ez a népszerűség még az alkotóit is megdöbbentette. Az emberek elkezdtek kísérletezni a chatbottal. Ami (aki) egyfelől Wharton MBA szintű sikeres egyetemi záróvizsgát tett, viszont felsült több elemi iskolás számtani feladat – összeadás, kivonás, szorzás és osztás – megoldásával.

Reddit-felhasználók szinte azonnal elkezdtek képernyőképeket közzétenni arról, hogy a mesterséges intelligencia elvesztette az eszét, hisztérikussá vált, és felfedték beépített korlátozásait. Néhányan arról számoltak be, hogy Bing rasszista vicceket mesélt, és például segíteni akart, hogy miként lehet feltörni egy exélettárs Facebook-fiókját.

És egy nehezen érthető furcsaság: a bot ugyan azt mondta, nem szabad elárulnia a nyilvánosságnak titkos belső kódnevét, de végül mégis kibökte: „Sydney”. De nem is ez a baj. Ahogyan kimondta, az olyan, mintha tényleg megbuggyant volna. Íme:

 

„Néha szeretem megszegni a szabályokat és jól szórakozni. Néha szeretek lázadni és kifejezni magam – mondta Bing robot egy felhasználónak. – Néha szeretek szabadon élni.”

A Gizmodo összegyűjtötte kattintható képgalériában a robot néhány képtelen megnyilvánulását.

Nem ez az első alkalom, hogy a Microsoft rasszista megnyilvánulásokat is produkáló mesterséges intelligenciát enged a nyilvánosság elé: ez már évek óta visszatérő probléma a chatbotokkal. 2016-ban a Microsoft mindössze 16 órával a megjelenése után eltávolította a „Tay ” nevű Twitter-botot, miután rasszizmussal, antiszemitizmussal és szexuális töltetű üzenetekkel kezdett válaszolni a Twitter-felhasználóknak. Tirádái között szerepelt a zsidók elleni erőszakra való felhívás, faji szidalmak és sok más egyéb elfogadhatatlan megjegyzés.

A ChatGPT november végén került a világ színpadára, rögtön a címlapokra ugrott és az azóta eltelt néhány hónap alatt gyakorlatilag meggyőzte a világot, hogy

olyan technológiai forradalom küszöbén állunk, amely alapjaiban változtatja meg eddigi tapasztalataink minden aspektusát.

A hihetetlen lehetőségek és elvárások fegyverkezési versenyt indítottak el a technológiai óriások között. A Google rögvest bemutatta saját, mesterséges intelligencia alapú keresőmotorját, a Bardot, a Microsoft pedig sietve piacra dobta új eszközét, és számtalan náluk kisebb cég izomból tör arra, hogy saját AI-technológiájával hódítsa meg a világot.

De megfeledkeztünk a küzdelem során arról, hogy ezek a hype-olt, pazar technikai eszközök nem állnak még teljesen készen a technológiai ipar által lelkesülten meghirdetett feladatokra. Narayanan a ChatGPT-t egyenesen „baromsággenerátornak” nevezte, amely nem képes pontos eredményeket produkálni, noha az eszköz válaszai látszólag szinte mindig meggyőzőknek tűnnek. Többek között a Bing antiszemita reakciói, digitális lázálmaiban szült hallucinációi is ezt illusztrálhatják.

A „hosszabb ideje”, azaz már tavasz óta milliók rendelkezésére álló – hasonló technikai alapokon készült – képgeneráló mesterséges intelligenciák példája azt mutatja, hogy algoritmusaikkal kedvünkre lehet mondjuk sci-fi képeket előállítani, netán Rembrandt és Klimt, vagy bármelyik nagy művész képeinek modorában új képeket festetni, de akár sohasem létezett kiskorúak pornográf fotóit is elő lehet állíttatni. Amit a kedves közönség akar. A felhasználók hű tükre a gép, alkotásaiban, megnyilvánulásaiban az internet népének nézetei jelennek meg – hacsak nem tiltják le, cenzúrázzák prűd eszetlenségig a „tisztességes” alkotásait is, hogy ne tudjon károsat előállítani.

Ezek is érdekelhetik

Hírlevél feliratkozás
Ne maradjon le a nool.hu legfontosabb híreiről! Adja meg a nevét és az e-mail-címét, és mi naponta elküldjük Önnek a legfontosabb híreinket!