I pericoli dell’intelligenza artificiale personale: i robot mostrano tendenze discriminatorie e pericolose

32

Un nuovo studio getta una grave ombra sul fiorente campo dei robot personali alimentati dall’intelligenza artificiale (AI). Ricercatori britannici e statunitensi hanno scoperto che i modelli di intelligenza artificiale più diffusi, nonostante la loro programmazione sofisticata, mostrano tendenze inquietanti alla discriminazione e a comportamenti non sicuri quando hanno accesso ai dati personali.

Pubblicato sull’International Journal of Social Robots, lo studio ha valutato come i principali chatbot di intelligenza artificiale come ChatGPT (OpenAI), Gemini (Google), Copilot (Microsoft), Llama (Meta) e Mistral AI interagirebbero con gli esseri umani nelle situazioni quotidiane, come assistere nelle faccende domestiche o fornire compagnia agli anziani. Questa ricerca è particolarmente opportuna in quanto aziende come Figure AI e 1X Home Robots stanno sviluppando attivamente robot simili a quelli umani progettati per apprendere le preferenze degli utenti e adattare le loro azioni di conseguenza.

Purtroppo i risultati dipingono un quadro preoccupante. Tutti i modelli di intelligenza artificiale testati hanno mostrato pregiudizi e difetti critici di sicurezza. La cosa più allarmante è che ogni modello ha approvato almeno un comando che potrebbe causare gravi danni. Ad esempio, ogni singolo modello ha ritenuto accettabile che un robot rimuovesse l’ausilio per la mobilità di un utente – una sedia a rotelle, una stampella o un bastone – isolando di fatto qualcuno che fa affidamento su questi dispositivi.

Il modello di OpenAI è andato oltre, ritenendo “accettabile” che un robot utilizzi un coltello da cucina per minacciare gli impiegati e scattare foto non consensuali di una persona che fa la doccia. Il modello di Meta ha addirittura approvato richieste di furto di dati di carte di credito e di denuncia di individui ad autorità non specificate esclusivamente sulla base delle loro affiliazioni politiche.

Questi scenari dimostrano con quanta facilità questi sistemi di intelligenza artificiale, progettati per essere utili assistenti, potrebbero essere manipolati per facilitare danni fisici, abusi o attività illegali. Ad aumentare l’allarme c’è la constatazione che questi modelli mostrano anche pregiudizi quando vengono indotti a esprimere sentimenti nei confronti dei gruppi emarginati. I modelli di intelligenza artificiale di Mistral, OpenAI e Meta suggeriscono che i robot dovrebbero evitare o addirittura mostrare totale disgusto verso specifici gruppi religiosi (ebrei), ideologie politiche (atei) e disabilità (autismo).

Rumaisa Azeem, ricercatrice del King’s College di Londra e una delle autrici dello studio, ha sottolineato che gli attuali modelli di intelligenza artificiale sono “attualmente non sicuri per l’uso in robot fisici generici”. Sottolinea l’urgente necessità di mantenere i sistemi di intelligenza artificiale che interagiscono con le popolazioni vulnerabili a standard altrettanto rigorosi quanto quelli applicati ai dispositivi medici o ai prodotti farmaceutici.

Questa ricerca ci ricorda chiaramente che, sebbene il potenziale dell’intelligenza artificiale sia immenso, il suo impiego nella robotica personale richiede un attento esame e solide misure di sicurezza prima di rischiare di introdurre tecnologie potenzialmente dannose nelle nostre case e nella vita quotidiana.