Responsible AI and Society - IDSIA

Scientific area

Intelligenza artificiale responsabile e società 

Il rapido avanzamento e la diffusione delle tecnologie di intelligenza artificiale stanno trasformando molti aspetti della vita umana, dalla sanità e dall’istruzione alla mobilità e ai processi decisionali. Comprendere e governare la relazione tra intelligenza artificiale e società è quindi diventato sempre più urgente. Tra le principali sfide vi sono l’autorità epistemica dei sistemi di intelligenza artificiale, la responsabilità etica nelle interazioni uomo-macchina, la trasparenza algoritmica, i rischi di bias e discriminazione e i ruoli sociali attribuiti all’AI generativa. Allo stesso tempo, l’intelligenza artificiale sta emergendo come una forza creativa e interpretativa che ridefinisce il modo in cui conoscenza, cultura ed esperienza umana vengono prodotte e rappresentate. All’IDSIA USI-SUPSI affrontiamo queste questioni attraverso una ricerca interdisciplinare che integra informatica, filosofia, psicologia, scienze sociali, interaction design, educazione e discipline umanistiche. Il nostro lavoro indaga come i sistemi di intelligenza artificiale operano in contesti reali, come vengono compresi e vissuti dalle persone e come possano essere progettati per sostenere autonomia, alfabetizzazione e forme significative di espressione umana.

Co-coordinatori di area:
Alessandro Facchini (SUPSI)
Monica Landoni (USI)

SUPSI Image Focus

Le basi filosofiche della moderna intelligenza artificiale rimangono in gran parte inesplorate, eppure sono essenziali per lo sviluppo responsabile delle tecnologie intelligenti. Questo pilastro esamina questioni fondamentali riguardanti la natura e lo statuto epistemico dei sistemi di apprendimento automatico, il rapporto tra quadri teorici e dati empirici, e i ruoli sociali che i sistemi di intelligenza artificiale svolgono, comprese le dinamiche che portano gli utenti ad attribuire loro autorità epistemica, correttamente oppure no. Un punto centrale della nostra ricerca si colloca all’intersezione tra epistemologia ed etica: indaghiamo come la comprensibilità e la trasparenza dei sistemi intelligenti influenzino la loro legittimità e affidabilità nelle applicazioni nel mondo reale, con particolare attenzione ai fondamenti concettuali ed epistemologici dell’explainable AI e alla sfida dell’opacità algoritmica. Attraverso un’analisi filosofica rigorosa di queste questioni, miriamo a costruire le basi concettuali richieste da uno sviluppo responsabile dell’intelligenza artificiale. 

Per maggiori informazioni, si rimanda ai siti web dei gruppi coinvolti: 

  • The Responsible AI & Society group (link tba)

Il successo dei sistemi di intelligenza artificiale dipende non solo dalla loro sofisticazione tecnica, ma soprattutto dalla qualità dell’interazione tra esseri umani e tecnologie intelligenti. Il nostro pilastro Human-AI Interaction è dedicato allo studio dell’esperienza utente, dell’accessibilità e dell’inclusività, con particolare attenzione agli ambienti educativi e ai bisogni di popolazioni diverse.
Ponendo le persone al centro del processo di progettazione, miriamo a sviluppare sistemi che non siano soltanto tecnicamente eccellenti, ma anche realmente utilizzabili e accessibili a tutti, garantendo che i benefici dell’intelligenza artificiale possano essere sperimentati in modo significativo da un ampio spettro di utenti, contesti e capacità.

Per maggiori informazioni, si vedano i rispettivi siti web dei gruppi coinvolti:

Il pilastro AI and Education affronta il rapporto tra tecnologie intelligenti e apprendimento da due prospettive complementari. Da un lato indaga come l’intelligenza artificiale possa migliorare gli ambienti di apprendimento, esaminando attentamente le questioni morali, cognitive ed epistemiche che tale integrazione solleva. Dall’altro riconosce che sia gli educatori sia il pubblico più ampio hanno bisogno di una comprensione approfondita delle capacità e dei limiti dell’intelligenza artificiale e si propone di fornire a individui e comunità gli strumenti critici necessari per interagire in modo efficace e responsabile con i sistemi intelligenti.
Combinando la ricerca sull’apprendimento potenziato dall’intelligenza artificiale con un impegno verso una reale alfabetizzazione all’intelligenza artificiale, questo pilastro prepara le persone non solo a beneficiare delle tecnologie intelligenti, ma anche a interrogarle criticamente, contestualizzarle e contribuire a plasmarle.

Per maggiori informazioni, si vedano i rispettivi siti web dei gruppi coinvolti:
Il futuro dell’intelligenza artificiale deve basarsi su sistemi che non siano soltanto tecnicamente robusti, ma anche equi, trasparenti e allineati ai valori umani. Attraverso il pilastro Trustworthy AI, IDSIA USI-SUPSI sviluppa e implementa sistemi di intelligenza artificiale su cui le persone possano realmente fare affidamento, progettando soluzioni eque, prevenendo la discriminazione e considerando con attenzione le più ampie conseguenze sociali dei processi decisionali algoritmici.
Il nostro lavoro in quest’area affronta la sfida fondamentale di costruire un’intelligenza artificiale degna di fiducia: dalla garanzia di trasparenza nel modo in cui i sistemi giungono alle loro conclusioni, alla sicurezza negli ambienti ad alto rischio, fino all’allineamento del comportamento dei sistemi di intelligenza artificiale con i valori fondamentali degli individui e delle comunità che servono.

Per maggiori informazioni, si vedano i rispettivi siti web dei gruppi coinvolti:
L’intelligenza artificiale sta diventando sempre più una forza creativa e interpretativa, capace di trasformare il modo in cui la conoscenza viene prodotta, la cultura viene espressa e l’esperienza umana viene rappresentata. Questo pilastro esplora l’intersezione tra intelligenza artificiale, computazione creativa, arti e scienze umane, indagando sia come i metodi computazionali possano arricchire la ricerca umanistica, sia come le prospettive delle scienze umane possano contribuire in modo critico alla progettazione dei sistemi di intelligenza artificiale.
Dai modelli generativi applicati alla musica e alle arti visive fino agli approcci computazionali allo studio del linguaggio e delle narrazioni, la nostra ricerca promuove un dialogo bidirezionale tra innovazione tecnologica ed espressione umana. Mettendo in relazione l’informatica con le discipline umanistiche e le arti, puntiamo ad ampliare i confini di ciò che l’intelligenza artificiale può creare, interpretare e preservare, mantenendo al centro il significato umano e la diversità culturale.

Per maggiori informazioni, si vedano i rispettivi siti web dei gruppi coinvolti:
 
  • The Responsible AI & Society group (link tba)

European University Alliance EUonAIR (2025-2028)

Bridging the Gap: Empowering Teachers about AI Education (2025-2027)

Noi e l’IA (in collaboration with L’Ideatorio) (2025-2027)

Rexasi Pro (2022-2025)

BBC - Breaking Boundaries in K-12 Classrooms: Fostering Gender Inclusion in STEM Teaching (2024-2025)

SOL - Scaffolding to foster independence when children search Online for Learning (2024-2028)

TADAA - Tools for Assessing and Developing Affecting & Attractive Narratives for Girls in Informatics (2022-2026)

Termine A, Ratti E., & Facchini, A. (2026) Machine learning and theory-ladenness: a phenomenological account. Synthese, 207(3), 94.

Cangiano, S., Moruzzi, C., Tremblay, P. A., & Facchini, A. (2026). SOUND DIALOGUES. The Responsible Use of AI in Artistic Creation. Zenodo. https://doi.org/10.5281/zenodo.18338772

Ferrario, A., Termine A, & Facchini, A. (2025) Social Misattribution in Conversations with Large Language Models. In Proceedings of 8th AAAI/ACM Conference on AI, Ethics and Society.

Starke, G., Gille, F., Termine, A., Aquino, Y. S. J., Chavarriaga, R., Ferrario, A., ... & Ienca, M. (2025). Finding Consensus on Trust in AI in Health Care: Recommendations From a Panel of International Experts. Journal of medical Internet research, 27, e56306.

Dominici, G., Barbiero, P., Espinosa Zarlenga, M., Termine, A., Gjoreski, M., Marra, G., & Langheinrich, M. (2025). Causal concept graph models: Beyond causal opacity in deep learning. Proceedings of the 13th International Conference on Learning Representations (ICLR 2025).

Facchini, A., & Mangili, F. (2024). Human-centered AI (Also) for humanistic management. In Humanism in Marketing: Responsible Leadership and the Human-to-Human Approach (pp. 225-255). Cham: Springer Nature Switzerland.

Ferrario, A., Facchini, A., & Termine, A. (2024). Experts or authorities? The strange case of the presumed epistemic superiority of artificial intelligence systems. Minds and Machines, 34(3), 30.

C. Grigioni, F. Corradini, A. Antonucci, J. Guzzi, and F. Flammini: “Safe Road-Crossing by Autonomous Wheelchairs: a Novel Dataset and its Evaluation“. In: Ceccarelli, A., Trapp, M., Bondavalli, A., Schoitsch, E., Gallina, B., Bitsch, F. (eds) Computer Safety, Reliability, and Security. SAFECOMP 2024 Workshops. SAFECOMP 2024. Lecture Notes in Computer Science, vol 14989. Springer, Cham. https://doi.org/10.1007/978-3-031-68738-9_4

Facchini, A., & Termine, A. (2022). Towards a taxonomy for the opacity of AI systems. In (Ed. By V. Müller) Philosophy and theory of artificial intelligence (pp. 73-89). Cham: Springer International Publishing.

Hidden Widget