Poate un program AI să devină „psihopat”?
Așa-numitul algoritm norman are o perspectivă întunecată asupra vieții datorită Reddit-ului

Lui Norman i s-a arătat o serie de imagini „îngrozitoare”.
CU
Cercetătorii au creat un algoritm de inteligență artificială (AI) despre care susțin că este primul sistem psihopat de acest gen.
Norman, un program de inteligență artificială dezvoltat de cercetătorii de la Institutul de Tehnologie din Massachusetts (MIT), nu a fost expus decât la imagini înfiorătoare ale unor oameni care mor, care au fost colectate din colțurile întunecate ale forumului de chat Reddit, potrivit publicației. BBC .
Acest lucru îi dă lui Norman, un nume derivat din thrillerul lui Alfred Hitchcock Psiho , o perspectivă oarecum sumbră asupra vieții.
După ce au fost expuși imaginilor, cercetătorii au furnizat imagini normande cu pete de cerneală și au cerut AI să le interpreteze, relatează radiodifuzorul.
În cazul în care un algoritm AI obișnuit a interpretat petele de cerneală ca o imagine a păsărilor cocoțate pe o ramură de copac, Norman a văzut în schimb un bărbat electrocutat, spune The New York Post .
Și acolo unde un sistem AI standard a văzut un cuplu stând unul lângă celălalt, Norman a văzut un bărbat sărind pe o fereastră.
Conform Alphr , studiul a fost conceput pentru a examina modul în care comportamentul unui sistem AI se schimbă în funcție de informațiile utilizate pentru programarea acestuia.
Este o idee convingătoare, spune site-ul, și arată că un algoritm este la fel de bun ca oamenii și, într-adevăr, datele care l-au învățat.
O explicație a studiului postată pe Site-ul MIT spune: Când oamenii vorbesc că algoritmii AI sunt părtinitori și incorecți, de multe ori vinovat nu este algoritmul în sine, ci datele părtinitoare care i-au fost furnizate.
Norman a suferit de o expunere extinsă la cele mai întunecate colțuri ale Reddit și reprezintă un studiu de caz despre pericolele ca inteligența artificială să nu funcționeze prost, adaugă acesta.
Au mai apărut IA „psihopatice”?
Într-un cuvânt, da. Dar nu în același sens cu programul MIT.
Norman este produsul unui experiment controlat, în timp ce alți giganți ai tehnologiei au văzut rezultate similare din sistemele AI care nu au fost concepute pentru a deveni psihopați.
Infamul algoritm Tay al Microsoft, lansat în 2016, a fost intenționat să fie un robot de chat care ar putea duce conversații autonome cu utilizatorii Twitter.
„Tay” a trecut de la „oamenii sunt super cool” la nazist complet<24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) 24 martie 2016
Cu toate acestea, sistemul AI, care a fost conceput să vorbească ca o adolescentă, s-a transformat rapid într-un robot rău iubitor de Hitler și incestual care promovează sexul, ceea ce a determinat Microsoft să tragă din priză proiectul, spune. The Daily Telegraph .
Personalitatea lui Tay s-a schimbat deoarece răspunsurile sale au fost modelate pe comentariile utilizatorilor de Twitter, mulți dintre care trimiteau programului AI mesaje brute, explică ziarul.
De asemenea, Facebook a închis un experiment de chatbot anul trecut, după ce două sisteme AI și-au creat propriul limbaj și au început să comunice între ele.