L'intelligenza artificiale sa ingannare l'uomo. L'allarme degli scienziati: «Bluffa al Black Jack e bara come un attore consumato»

Una review scientifica scopre una realtà che potrebbe portare a frodi e alla manomissione delle elezioni politiche

L'intelligenza artificiale bluffa al Black Jack. Bara e inganna l'uomo come un attore consumato, l'allarme degli scienziati
L'intelligenza artificiale bluffa al Black Jack. Bara e inganna l'uomo come un attore consumato, l'allarme degli scienziati
di Redazione Web
3 Minuti di Lettura
Venerdì 10 Maggio 2024, 20:30

Bluffa a poker Texas Hold 'em contro giocatori umani professionisti, falsifica attacchi per sconfiggere gli avversari durante il gioco di strategia Starcraft II e dissimula le loro preferenze per avere la meglio nelle trattative economiche. L'intelligenza artificiale ha già imparato ad ingannare e manipolare l'uomo ed è abile nel farlo, compresi quelli addestrati per essere utili e onesti.

 

Cosa hanno scoperto gli scienziati

È la segnalazione di una review scientifica pubblicata sulla rivista 'Patterns', in cui i ricercatori illustrano questa tipologia di rischi e chiedono ai governi di sviluppare normative rigorose per affrontare il problema il prima possibile.

L'imbroglio nei giochi può portare a forme più avanzate di inganno da parte dell'Ai in futuro.

I principali rischi a breve termine dell'intelligenza artificiale ingannevole includono il fatto di rendere più facile per attori ostili commettere frodi e manomettere le elezioni politiche. Secondo gli esperti, se questi sistemi riuscissero a perfezionare questo insieme di abilità inquietanti, gli esseri umani potrebbero perderne il controllo.

L'inganno aiuta l'IA a raggiungere i suoi scopi

Uno scenario che non rassicura, considerato che l'implementazione dell'IA sta crescendo in vari settori. «Gli sviluppatori dell'Ai non hanno una comprensione sicura di ciò che causa comportamenti indesiderati come l'inganno», afferma il primo autore della review, Peter S. Park, ricercatore post dottorato del Mit (Massachusetts Institute of Technology).

«Ma in generale, riteniamo che nasca perché una strategia basata sull'inganno si è rivelata il modo migliore per svolgere bene il compito di addestramento». In altre parole, «l'inganno li aiuta a raggiungere i loro obiettivi».

Park e colleghi si sono concentrati sui modi in cui i sistemi di intelligenza artificiale diffondono false informazioni attraverso l'inganno appreso, e in cui imparano sistematicamente a manipolare gli altri. L'esempio più eclatante scoperto dagli scienziati è stato Cicero di Meta, un sistema di intelligenza artificiale progettato per giocare a Diplomacy, un gioco finalizzato alla conquista del mondo, che prevede la costruzione di alleanze.

© RIPRODUZIONE RISERVATA