
Sviluppato da QuestIT insieme all’Università di Siena e al Cnr, il programma di intelligenza artificiale sa comprendere la lingua italiana dei segni (Lis) e fornisce risposte tramite avatar.
Da oggi i chatbot parlano anche la lingua dei segni. Anzi, la lingua italiana dei segni (Lis), perché il primo progetto di questo genere mai realizzato nel mondo porta la firma di un’azienda tricolore: è QuestIT, spin-off dell’Università di Siena, già nota per aver sviluppato il programma di intelligenza artificiale “empatica” Algo. E porta anche la (prestigiosa) firma del Cnr, il Consiglio Nazionale delle Ricerche, che ha collaborato mettendo a disposizione i propri ricercatori.
Il nuovo traguardo potrà fungere da esempio per progettare e allenare altri modelli di apprendimento automatico capaci di comprendere e parlare altre lingue dei segni (nel mondo ne esistono circa duecento ufficialmente riconosciute). Perché è importante? Non solo l’inclusione è un valore trasversale a diversi degli Obiettivi di Sviluppo Sostenibile dell’Agenda 2030 dell’Onu, ma non necessità di argomentazioni il fatto che oggi sia ingiusto e anacronistico tagliare fuori dalla trasformazione digitale lai popolazione affetta da disabilità. E non si tratta di numeri piccoli: sono decine di migliaia gli italiani sordi (alcune stime dicono circa 40.000) o affette da deficit dell’udito.
Uno di loro si chiama Alessio Di Renzo e può vantare di essere il primo ricercatore sordo in Italia. Di Rienzo fa parte del team di Olga Capirci, dirigente di ricerca dell’Istituto di Scienze e Tecnologie della Cognizione del Cnr, che ha partecipato in misura rilevante al progetto. “Il nostro slogan potrebbe essere: non per i sordi ma con i sordi”, ha spiegato Capirci durante la conferenza stampa di presentazione del chatbot. “Il mio gruppo ha aderito con grande entusiasmo perché era il progetto giusto. Altri ci avevano provato ma senza capire che realizzare un chatbot capace di parlare la Lis non era solo una questione tecnologica”.
Nel progetto di QuestIT, anche tramite il Cnr, utenti sordi sono stati coinvolti fin dalle prime fasi e non solamente nel testing, a prodotto finito. Tant’è che, ha sottolineato Capirci, molte idee sono state bocciate ed è stato necessario ripartire da zero. “La semplice usabilità nel design non garantisce che un’applicazione venga poi effettivamente utilizzata: bisogna comprendere la cultura delle persone a cui è rivolta”, ha rimarcato Letizia Mari, ricercatrice e docente di experience design dell’Università di Siena. “QuestIT, in tutto ciò, è un po’ una mosca bianca perché non sono molte le aziende che lo fanno”.
“Hanno ascoltato i nostri consigli e le nostre esigenze”, ha testimoniato Di Renzo, ricordando che la Lis è una lingua complessa, che veicola contemporaneamente più informazioni attraverso gesti codificati ma anche espressioni del volto e posture. “Uno degli aspetti su cui la ricerca sta lavorando, senza ancora aver trovato una risposta, è la sua codifica in forma scritta”, ha spiegato.