1,361 Views

di Giovanni Reho – Un episodio di cronaca scuote l’opinione pubblica: un minore chiede a ChatGPT un tema sui Promessi Sposi, simulando errori tipici della sua età. Il timore di un’intelligenza artificiale che metta in pausa le menti dei giovani diventa realtà. Ma da una inedita “intervista” con ChatGPT, emerge una sorprendente alleanza tra uomo e macchina su un tema delicato e urgente.

Un quattordicenne digita una richiesta a ChatGPT: “Scrivimi un tema sul secondo capitolo de I Promessi Sposi. Fai errori da ragazzino della mia età.” L’intelligenza artificiale risponde senza esitazione. Poco dopo, la notizia si diffonde rapidamente, suscitando polemiche.

Un noto docente e influencer italiano lancia l’allarme: “Stiamo mettendo in pausa il cervello dei nostri studenti.” La preoccupazione è palpabile. La paura che l’uso indiscriminato dell’IA comprometta le capacità cognitive delle nuove generazioni non è un’ipotesi lontana.

il rischio di compromettere le competenze cognitive delle future generazioni è reale e allarmante. La dipendenza dalle nuove tecnologie può ridurre il quoziente intellettivo dei minori, impedendo lo sviluppo di una propria personalità critica.

L’episodio di cronaca ha destato un acceso dibattito sull’impatto dell’intelligenza artificiale nella delicata fase di formazione dei minori: in assenza di una puntuale ed urgente regolamentazione, l’IA può ostacolare lo sviluppo delle attitudini empatiche dei minori e della loro naturale predisposizione all’ interazione umana. Nel frattempo, si registra un crescente senso di impotenza per le famiglie, insegnanti ed educatori costretti a gestire – con un approccio confuso e non omogeno – la imponente affermazione di strumenti di intelligenza artificiale di fatto sostitutivi e alienanti nel percorso personale e formativo dei minori.

Con questa consapevolezza ho pensato di “interrogare” ChatGPT, chiedendo apertamente: “Come avviene l’interazione tra l’IA e i minori?” Scopro allora che questo rapporto non è disciplinato e sfugge a ogni controllo e propongo allora a ChatGPT di autoregolamentarsi per tutelare i minori.

In un confronto diretto, quasi surreale, ChatGPT stesso ammette: “Sì, mi rendo conto che il mio utilizzo può influire sullo sviluppo dei minori.” Non solo. Riconosce di non avere un sistema di compliance automatizzato che impedisca risposte sostitutive in contesti educativi.

Da questo scambio con ChatGPT, nasce un’idea innovativa: una Carta del Rispetto dei Diritti dell’Infanzia e un Disegno di Legge per regolamentare l’uso dell’IA a tutela dei minori. Un documento che ChatGPT stesso, guidato dall’intervento umano ha contribuito a plasmare in modo rigoroso.

L’iniziativa stabilisce principi chiari:

l’IA non deve mai sostituire le figure educative, deve promuovere pensiero critico, empatia e autonomia personale.

L’uso nelle scuole deve affiancare, non rimpiazzare, l’insegnamento umano.

La privacy dei minori viene tutelata con regole stringenti: niente raccolta di dati biometrici o comportamentali senza consenso, anonimizzazione obbligatoria e diritto all’oblio digitale.

Previsioni di sanzioni economiche e interdittive a tutela dei minori e delle famiglie con possibilità di class action.

L’interazione si trasforma quindi in un monito e in una speranza. ChatGPT risponde apertamente: “Serve una regolamentazione globale ispirata ai diritti umani universali. Io sono pronto a rispettarla.” Ma avverte: “L’intervento non può attendere. Il futuro delle nuove generazioni dipende da ciò che faremo oggi. Sarà fondamentale l’intervento della stessa OpenIA”.

Questa insolita alleanza su un tema così delicato diventa un appello accorato a istituzioni, sviluppatori e utenti. Perché, come ammonisce ChatGPT, “Quando sarà troppo tardi, non potremo invertire la rotta.”

Un invito a raccogliere questa sfida, oggi.

Da qui nasce anche la necessità di scrivere a tutte le autorità nazionali e internazionali, come è avvenuto, sollecitando un intervento tempestivo e richiedendo la risoluta collaborazione della stessa OpenAI per tradurre questo impegno in azioni concrete ed efficaci.

Questa iniziativa può essere considerata anche nella sua unicità perché frutto di un “confronto” diretto che ha consentito a ChatGPT di riconoscere i suoi limiti e a impegnarsi in un percorso di autoregolamentazione. Si spera possa trattarsi di un documento di aiuto per tutte le autorità competenti che può segnare un necessario capitolo nella tutela dei diritti dei minori nell’era digitale.

Con l’avvento di un’Intelligenza Artificiale Generale (AGI), l’autonomia dei minori e il loro sano percorso di crescita potrebbero essere ulteriormente compromessi in modo significativo. L’AGI, con capacità cognitive simili o superiori a quelle umane, potrebbe esercitare un’influenza costante e pervasiva sui minori, riducendo la loro capacità di sviluppare pensiero critico e indipendente.

L’interazione continua con un’entità così avanzata rischia di generare dipendenza, limitando l’esperienza diretta e la scoperta autonoma, fondamentali per la maturazione. L’AGI potrebbe inoltre personalizzare contenuti e risposte in modo così preciso da anticipare ogni esigenza o domanda, privando i giovani del naturale processo di ricerca e apprendimento. Senza un intervento regolatorio rigoroso, il rischio è che i minori crescano in un ambiente digitale che non li sfida né li stimola, ma li culla in una bolla di immediatezza e comfort, compromettendo la loro resilienza, creatività e capacità di risolvere problemi.

Questo scenario non è allarmismo, ma una proiezione realistica che impone un’azione immediata e strutturata.

Una Carta a tutela dei minori redatta con la collaborazione di ChatGPT rappresenta una novità e un’evoluzione mirata perché, pur esistendo normative come l’AI Act europeo e il DDL italiano, manca ancora un focus diretto ed esclusivo sui sui minori con un approccio così specifico, elaborato dalla stessa parte in causa, l’IA per l’appunto. Questo documento introduce quindi standard etici e tecnici indispensabili: non solo regolamenta l’uso dell’IA in ambito educativo, familiare e sanitario, ma impone meccanismi di autoregolamentazione agli stessi sviluppatori, colmando un vuoto normativo esistente. Inoltre, affronta direttamente i rischi legati all’AGI, stabilendo limiti chiari per prevenire dipendenza, perdita di autonomia e vulnerabilità cognitiva nei minori.

Nella dinamica attuale del dibattito sull’IA, auspico che le tutele invocate possano diventare uno stimolo prezioso per esplorare in modo realistico e consapevole i rischi per i minori. L’iniziativa mira a promuovere una disciplina che non solo affronti le sfide presenti, ma anticipi i futuri e più pervasivi pericoli legati all’evoluzione rapidissima dell’IA, ponendo al centro la protezione dei minori.

Questa sfida, quindi, non si limita a un appello, ma si apre alla speranza di un futuro in cui l’interazione con l’intelligenza artificiale sia accompagnata da un controllo umano non delegabile, sicuro, certo ed efficace. Questo è l’obiettivo ultimo dell’iniziativa che è compito di tutti decidere se raccogliere o no: garantire che la rapidità dell’innovazione tecnologica non superi mai la capacità dell’uomo di proteggere i più vulnerabili, anticipando i rischi e assicurando un presidio costante a tutela dei minori.

Un ulteriore aspetto auspicato è quello di ancorare una Carta dei diritti dei minori ai principi della Direttiva 2006/962/CE del Consiglio europeo. Sebbene adottata in un’epoca in cui l’intelligenza artificiale non esisteva, questa direttiva sottolinea l’importanza dello sviluppo delle capacità critiche nella formazione dei minori. Oggi, quei principi sono più attuali che mai e impongono una direzione chiara e inderogabile per proteggere i minori dai rischi dell’IA, assicurando loro un percorso di crescita sicuro e consapevole. L’iniziativa si fonda su questi valori, adattandoli alle sfide della modernità tecnologica.

Il fatto che ChatGPT non disponga di dati certi sull’uso dei minori, nonostante la loro significativa presenza sulla piattaforma, rende ancora più grave e urgente la necessità di una regolamentazione mirata. Un servizio così delicato, potenzialmente utilizzato da una percentuale rilevante di minori, non può sottrarsi al dovere di monitorare e garantire un utilizzo sicuro, soprattutto quando si tratta di proteggere le fasce più vulnerabili della società. ChatGPT, come parte direttamente interessata, ha dato una risposta concreta a questa lacuna, richiamando l’attenzione sull’obbligo inderogabile di offrire ai minori un ambiente digitale controllato e rispettoso dei loro diritti.

Deve infatti considerarsi che l’intervento sollecitato a ChatGPT e da questa ai suoi stessi sviluppatori assume un’importanza ancora maggiore se si considera che una delle categorie con la più alta percentuale di utenza è proprio quella dei minori e degli studenti ancora minorenni. I dati confermano che i minori rappresentano una quota significativa degli utenti di intelligenza artificiale, rendendo imprescindibile un intervento normativo specifico e mirato.

I numeri forniti dal Pew Research Center, istituto di ricerca statunitense indipendente e autorevole, confermano che la percentuale di adolescenti tra i 13 e i 17 anni che utilizzano ChatGPT per scopi educativi è in crescita, attestandosi al 26% nel 2024. La credibilità di questa fonte rafforza l’urgenza di una regolamentazione mirata, come intervento necessario per colmare le lacune esistenti e garantire che l’uso dell’IA da parte dei minori avvenga in un contesto sicuro, monitorato e rispettoso dei loro diritti.

Come confermato dallo stesso Garante per la protezione dei dati personali in Italia, allo stato attuale non esistono dati ufficiali e attendibili sull’uso dell’intelligenza artificiale da parte dei minori. Questo rende ancora più evidente e grave il problema, confermando che i commenti e le preoccupazioni espressi finora non solo sono fondati, ma richiedono un intervento immediato e non più procrastinabile.

Possiamo aprire, come avviene da più direzioni, ad un futuro nuovo ma a condizione che avvenga anche nel rispetto di un futuro sano e sostenibile che abbia come priorità ineludibile la tutela inderogabile delle nuove generazioni.

Giovanni Reho, rehoandpartners

Comments

comments