L’Università di Siena è la prima in Italia ad approvare linee guida per l’uso dell’intelligenza artificiale rivolte a studenti e docenti. L’ateneo ha redatto un decalogo con dieci principi chiave per un uso corretto dell’AI, in cui vengono approfonditi temi come la formazione, la verifica delle fonti e la comprensione dei limiti dei modelli di intelligenza artificiale. L’obiettivo del documento è indirizzare la comunità accademica nella discussione e nell’approfondimento di nuove modalità di fare didattica e ricerca, promuovendo comportamenti responsabili e consapevoli nell’uso delle nuove tecnologie. Il regolamento è stato accolto positivamente dalla comunità accademica e rappresenta un importante passo in avanti nella regolamentazione dell’uso dell’intelligenza artificiale in Italia.
Il decalogo dell’ateneo senese
L’ateneo ha stabilito dieci regole fondamentali per utilizzare ChatGpt e altri Large Language Models in modo consapevole, che approfondiscono temi sensibili come l’importanza della formazione, la necessità di garantire la veridicità e l’imparzialità delle informazioni e delle fonti, l’obbligo di citare l’uso di sistemi AI in tesi o pubblicazioni e l’efficacia degli strumenti di ricerca nel contesto accademico.
Nel documento si avverte che, nonostante le potenzialità offerte dall’intelligenza artificiale, è essenziale riconoscere che questi strumenti hanno anche dei limiti. Possono, infatti, fornire informazioni obsolete o fuorvianti e, in alcuni casi, contribuire alla diffusione di fake news. Di fronte a queste sfide, l’Università di Siena sottolinea l’importanza di un approccio critico e consapevole, al fine di promuovere una cultura dell’apprendimento etico e responsabile.
Le linee guida in Europa
Mentre l’Università di Siena si muove in avanti con la sua regolamentazione interna sull’uso di ChatGPT, l’Unione Europea è impegnata nella creazione di un solido quadro normativo per l’intelligenza artificiale. Questo impegno rientra in una strategia più ampia, che vede nell’AI un potenziale strumento di innovazione per settori chiave come la sanità, i trasporti e la produzione.
Nel mese di aprile del 2021, la Commissione europea ha introdotto le prime linee guida dell’UE riguardanti l’AI, categorizzando i modelli di intelligenza artificiale secondo il potenziale rischio per chi li utilizza. Queste direttive stabiliscono che strumenti come ChatGPT aderiscano a criteri di trasparenza, specificando, per esempio, quando un testo è prodotto da un sistema di intelligenza artificiale.
La Commissione ha anche stabilito principi etici per l’uso delle tecnologie emergenti e dei dati nel campo accademico. Questi principi, parte del Piano d’azione per l’istruzione digitale (2021-2027), analizzano come queste innovazioni vengano adottate nelle scuole e università, per offrire supporto sia ai docenti che agli studenti.
L’obiettivo finale è chiaro: garantire che educatori e studenti siano ben informati sulle potenzialità e sui rischi delle nuove tecnologie, perché soltanto attraverso una sinergia tra formazione ed innovazione tecnologica si potrà elevare l’insegnamento e arricchire l’esperienza formativa delle generazioni a venire.