di Erika Piazza e Lucia Zamboni
Le classi 1^A, 2^A, 2^D e 3^A della scuola secondaria di primo grado dell’I.C. Don Bosco di Monticello Conte Otto (Vicenza), hanno iniziato il loro percorso alla scoperta dell’intelligenza artificiale attraverso una ricerca su tre tipi di intelligenza: l’intelligenza umana, animale e vegetale. I ragazzi attribuiscono importanza ad un’ intelligenza animale, avendone fatta diretta esperienza, ma faticano ad accettare l’esistenza di una sorta di “intelligenza” vegetale, non comprendendo in quale modo le piante possano comunicare. Viene citato, a questo proposito, il lavoro sperimentale di Stefano Mancuso che opera in questa direzione. Queste prime riflessioni permettono di iniziare ad esplorare la possibilità che esistano diversi tipi di intelligenza e comprendere come ciò che definiamo “intelligenza” sia un costrutto con diversi significati, la cui definizione rimane talvolta controversa.
A seguito di queste riflessioni, abbiamo introdotto il concetto di intelligenza artificiale ed attraverso la piattaforma readyai.org, ci siamo concentrati sulle cinque grandi idee sull’I.A.: la capacità di percepire, di imparare, di decidere, di interagire e l’impatto sociale. Dopo aver visto una ad una queste caratteristiche dell’I.A. abbiamo potuto esplorare altri moduli legati ai temi della Rappresentazione/Ragionamento (albero decisionale) e Machine Learning (come impariamo e come le macchine imparano), soffermandoci sulle interazioni tra computer e umani portando come esempio gli studi di Alan Turing ed il suo test.
Una volta affrontata questa prima parte teorica, è stato il momento di sperimentare in prima persona come poter programmare una macchina affinché possa arrivare a riconoscere l’espressione del volto di una persona, decidere lo stato emotivo associato e suggerire degli stimoli per poter migliorare stati emotivi definiti negativi. Partendo con esercizi di programmazione con mBlock ed esplorandone i limiti, siamo passati all’utilizzo di Scratch e di una learning machine: riconoscimento di un oggetto tramite webcam e addestramento della macchina tramite la piattaforma LearningML.
Una volta eseguito un “addestramento tipo” con due oggetti reperiti in classe (libretto azzurro e tappo rosso) è stato portato il risultato su Scratch e generato un codice mediante il quale lo sprite reagisce in positivo o in negativo in base all’ input dato. A questo punto si è introdotta l’idea di creare un’app chiamata APP4MOOD in grado di aiutare gli studenti, in particolare quelli che presentano difficoltà a livello comunicativo, ad esprimere il proprio stato emotivo e ad ottenere suggerimenti per migliorarlo.
Un gruppo di ragazzi della classe ha lavorato separatamente alla progettazione dell’App ponendosi delle domande relativamente alla gestione delle emozioni. Potendo disporre dello psicologo che opera all’interno del nostro Istituto, gli studenti hanno pensato di invitarlo in classe allo scopo di porre delle domande ad un professionista in grado di dare risposte mirate ai loro quesiti sulla percezione, emozione e reazioni umane. A seguito della suddivisione in gruppi di lavoro, i ragazzi si sono presentati con tre macro contenitori: RABBIA – TRISTEZZA – FELICITA’, producendo per ognuno di loro una serie di documenti, codici, giochi e file atti a sondare lo stato d’animo, a modificarlo se non buono o a mantenerlo se già felice. Procedendo con diverse revisioni atte a migliorare l’app, il percorso si è concluso con la versione definitiva di APP4MOOD in grado di riconoscere l’espressione del volto di una persona, decidere lo stato emotivo associato e suggerire, nel caso di emozioni negative, degli stimoli (ad esempio antistress o brani musicali) per poterle migliorare.