L'intelligenza artificiale si dimostra utile nell'istruzione giapponese, nonostante le eccessive preoccupazioni

L'intelligenza artificiale si dimostra utile nell'istruzione giapponese, nonostante le eccessive preoccupazioni

TOKYO – In Giappone, il potere dell'intelligenza artificiale viene utilizzato per diversi scopi, dall'aiutare i bambini a rischio di assentarsi da scuola all'insegnare la conversazione in inglese, fino a preservare le storie dei sopravvissuti alla bomba atomica.

Nel 2023, la città di Toda, nella prefettura di Saitama, vicino a Tokyo, ha lanciato un programma pilota per verificare se l'intelligenza artificiale potesse prevedere la probabilità di assenteismo scolastico e fornire ai bambini un supporto preventivo.

L'intelligenza artificiale è stata addestrata su dati quali assenze e cartelle cliniche, generando previsioni numeriche per ogni studente a supporto delle decisioni degli insegnanti.

Sullo schermo del computer, i nomi degli studenti appaiono accanto a un livello di rischio codificato a colori (rosso, rosa, arancione o giallo) che indica la probabilità che saltino le lezioni.

Per generare questi punteggi, l'intelligenza artificiale ha analizzato informazioni personali quali presenze, ritardi, risultati di sondaggi accademici, screening sanitari, visite infermieristiche e registri di bullismo, basandosi su modelli di studenti assenti in precedenza.

Durante la sperimentazione, l'IA ha segnalato 1.193 studenti come a rischio. Di questi, alle scuole è stato consigliato di dare priorità a 265 studenti. In una scuola elementare, gli avvisi dell'IA hanno identificato 10 studenti bisognosi di ulteriore aiuto che altrimenti sarebbero stati trascurati. La sperimentazione si è conclusa nell'anno fiscale 2023.

L'accesso alle previsioni era limitato a presidi e amministratori. Makiko Nakamuro, professoressa presso la Keio University e membro del comitato consultivo per l'istruzione della città, ha definito l'iniziativa promettente, ma ha messo in guardia contro un eccessivo affidamento sulla tecnologia.

"Collegando dati oggettivi, abbiamo il potenziale per prevenire l'assenteismo", ha affermato. "Ma è necessario tenere conto delle problematiche relative alla privacy e genitori e studenti hanno bisogno di spiegazioni chiare".

Anche la città di Toda ha emanato delle linee guida che vietano la discriminazione o il trattamento ingiusto sulla base dei risultati dell'intelligenza artificiale.

Sebbene l'iniziativa possa contribuire alla lotta contro l'assenteismo, solleva anche la delicata questione di consentire alla tecnologia di valutare i bambini utilizzando punteggi numerici. Per gli insegnanti impegnati, il sistema potrebbe essere utile per segnalare gli studenti a rischio di assentarsi da scuola, che altrimenti potrebbero passare inosservati.

Alcuni comuni stanno anche testando l'intelligenza artificiale per identificare i bambini vulnerabili ad abusi o molestie.

Ma come gli insegnanti, l'intelligenza artificiale è tutt'altro che infallibile e può non cogliere i segnali d'allarme. Gli esperti sottolineano che l'intelligenza artificiale deve essere integrata dal giudizio umano, e solo dopo che genitori e figli abbiano ricevuto spiegazioni chiare.

Diverse università stanno ora utilizzando l'intelligenza artificiale come partner per le conversazioni in inglese. La Waseda University, la Kansai University, la Chuo University, la Meiji University e la Kyushu University hanno adottato il sistema, così come il Gifu College.

Sviluppata dalla startup Equmenopolis con sede a Tokyo, l'intelligenza artificiale dialoga con gli studenti per circa 20 minuti, analizzandone grammatica, vocabolario, pronuncia, tempi di risposta e persino espressioni facciali. Valuta le prestazioni su una scala a sei punti e fornisce feedback.

Durante una sessione, l'IA chiese: "Hai qualche consiglio cinematografico?". Un candidato all'esame di ammissione all'università rispose in inglese e l'IA rispose spontaneamente con domande di approfondimento. Lo studente in seguito affermò di sentirsi meno nervoso a parlare con l'IA che con una persona.

Yoichi Matsuyama, CEO di Equmenopolis e ricercatore ospite presso la Waseda University, ha affermato che il sistema risolve un problema di vecchia data nelle aule scolastiche.

"È difficile per un insegnante umano parlare con ogni studente", ha spiegato. "L'intelligenza artificiale permette agli studenti di esercitarsi al proprio livello".

I sostenitori affermano che la tecnologia potrebbe aiutare gli studenti giapponesi a superare una delle loro maggiori debolezze nell'inglese: la sicurezza nel parlare.

Il governo della prefettura di Kanagawa utilizza l'intelligenza artificiale per preservare la memoria. Nel marzo 2025, la prefettura testerà il "Sistema di narrazione tramite intelligenza artificiale" presso il Memoriale della Pace di Kanagawa a Yokohama.

Il sistema consente ai visitatori di porre domande e ascoltare le risposte registrate dei sopravvissuti alla bomba atomica. La testimonianza del 93enne sopravvissuto a Nagasaki, Hiroshi Nishioka, è stata suddivisa in circa 130 argomenti. Quando viene posta una domanda, l'IA seleziona e riproduce la risposta registrata più pertinente.

Durante una manifestazione, gli studenti delle scuole elementari chiesero: "Non è stato spaventoso?" e ​​"Com'era la vita durante la guerra?"

L'IA ha risposto con le parole e i video di Nishioka. Un partecipante di 11 anni ha dichiarato: "Sono rimasto sorpreso; mi è sembrato di parlare con una persona reale".

Nishioka aveva 13 anni quando fu esposto al bombardamento atomico, a circa tre chilometri dall'ipocentro. Spera che il progetto mantenga vivi i suoi ricordi.

"Ci sono sempre meno sopravvissuti", ha detto. "Voglio lasciare una testimonianza accurata finché posso."

Il governo di Kanagawa intende offrire il sistema alle scuole e renderlo disponibile nella sala commemorativa.

L'amministrazione comunale di Hiroshima, l'altra città devastata dalle bombe atomiche alla fine della Seconda guerra mondiale nel 1945, sta sviluppando un dispositivo simile per il suo Museo commemorativo della pace.

Gli sviluppatori sottolineano che l'IA non inventerà né altererà mai ciò che dicono i soggetti. Può solo riprodurre le testimonianze reali dei sopravvissuti, una salvaguardia progettata per rispettare la sensibilità del soggetto.