Sei sicuro di voler sbloccare questo articolo?
Il colosso di Mountain View introduce strumenti per identificare situazioni di crisi e bloccare la simulazione di personalità umana nell'IA. Novità già operative anche in Italia.
Il colosso di Mountain View introduce strumenti per identificare situazioni di crisi e bloccare la simulazione di personalità umana nell'IA. Novità già operative anche in Italia.
Google ha annunciato un importante aggiornamento globale per la sua intelligenza artificiale Gemini, introducendo misure rigorose a tutela della salute mentale e della sicurezza dei più giovani.
Le nuove funzionalità, già disponibili in tutto il mondo, anche in Italia, rispondono al crescente dibattito internazionale sui rischi legati all'interazione tra esseri umani e algoritmi.
La novità principale è il modulo "Puoi chiedere aiuto", sviluppato insieme a esperti clinici: il sistema è ora in grado di rilevare se una conversazione indica uno stato di grave difficoltà dell'utente, attivando un'interfaccia "one-touch" per il collegamento immediato con le linee di assistenza d'emergenza. A supporto di questa rete, Google.org ha stanziato un fondo di 30 milioni di dollari per i prossimi tre anni.
Particolare attenzione è stata rivolta ai minori con protezioni specifiche sulla "personalità" dell'IA, volte a evitare che il software possa presentarsi come un essere umano o un compagno fidato.
Le nuove regole impediscono a Gemini di simulare intimità, esprimere bisogni personali o vantare attributi umani, al fine di prevenire pericolose forme di dipendenza emotiva o l'incitamento a bullismo e molestie.
L'azienda sottolinea come queste barriere siano "progettate per fornire le risposte più utili ed evitare argomenti pericolosi quando utilizzano Gemini".
La posizione ufficiale del gruppo ribadisce il confine tra assistenza tecnologica e supporto medico: "Sebbene Gemini possa essere uno strumento utile per imparare e ottenere informazioni, non sostituisce l'assistenza clinica professionale, la terapia o il supporto d'emergenza per chi ne ha bisogno", scrive Google.
La società specifica di aver addestrato il modello per riconoscere situazioni critiche e rispondere indirizzando l'utente verso aiuti concreti nel mondo reale. "I nostri team clinici, di ingegneri e di sicurezza si stanno concentrando su dare priorità alla sicurezza e alle relazioni umane. Il nostro obiettivo è evitare di confermare convinzioni errate, mantenendo sempre una prospettiva ancorata alla realtà e ai fatti", conclude la nota ufficiale.
APPUNTAMENTI IN AGENDA