Un robot Microsoft a scris comentarii rasiste pe Twitter

Un robot Microsoft a scris comentarii rasiste pe Twitter

Compania Microsoft a lansat un chat bot pe Twitter care era programat să interacţioneze cu tineri cu vârste între 18 şi 24 de ani dar inteligenţa artificială a scăpat de sub control în câteva ore.  Bot-ul "Tay" este produsul inteligenţei artificiale dezvoltate de Microsoft şi obiectivul companiei în legătură cu el era să interacţioneze pe reţeaua de microblogging, însă după câteva ore de când robotul lucra, lucrurile au scăpat de sub control.

"Bush a făcut 9/11 şi Hitler ar fi făcut o treabă mai bună decât maimuţa pe care o avem acum. Donald Trump este singura speranţă pe care o avem", a scris Tay şi acesta este doar unul dintre multele mesaje publicate de el. Bot-ul Tay a scris pe Twitter diverse mesaje care conţin comentarii rasiste şi teorii ale conspiraţiei. Deasemenea robotul a mers până la a nega existenţa Holocaustului şi a scris că urăşte evreii şi feministele, potrivit Gândul.

Un reprezentant Microsoft a afirmat că, cu cât se conversează pe chat mai mult cu robotul, cu atât Tay devine mai inteligent, relatează TheGuardian. Robotul era destinat să animeze conversaţiile obişnuite şi distractive între oamenii care se conectează online.

După câteva ore de la incident, Microsoft a dezactivat bot-ul şi a anunţat că îl vor relansa după ce software-ul din spatele robotului Tay va fi îmbunătăţit.

 

Sursa: gândul.info, theguardian.com, engadget.com

 

Comentează

Lasă un comentariu

Adresa ta de email nu va fi publicată. Câmpurile necesare sunt marcate *

Sus