Call for Paper and Submission. Anno 5 No. 1/Aprile, 2025
Human-centric approach to Artificial Intelligence
La Call Human-centric approach to Artificial Intelligence mira a raccogliere studi e
riflessioni sulle potenzialità e i rischi degli sviluppi dell’intelligenza artificiale (IA).
L’Intelligenza Artificiale (IA) rappresenta un concetto molto generico e ampio che
ricomprende varie tecnologie specifiche, come l'apprendimento automatico, le reti
neurali e l'apprendimento profondo, applicate a diversi ambiti di ricerca,
sperimentazione e attività scientifiche (dalla medicina all’educazione,
dall’ingegneria alla finanza ecc.). Le recenti discussioni sulla possibilità di esiti in
qualche modo inaspettati o "emergenti" associati all'IA hanno in realtà a che vedere
soprattutto con l’IA generativa, con l'apprendimento profondo nelle reti neurali
(ispirate alla struttura del cervello umano), poiché queste si riferiscono a strutture
generiche che non incorporano regole prestabilite o alberi decisionali (o altri
strumenti come gli algoritmi genetici), ma devono essere addestrate su serie di dati
coerenti per produrre alla fine risultati adeguati (Higuera 2023).
La probabilità che informazioni incomplete e distorte, fake news e disinformazione
possano avere un ritorno, producendo un effetto di “ingrandimento” attraverso l'IA
generativa, può essere imprevedibile. C’è chi, come lo storico Yuval Noah Harari,
ritiene che l’IA costituisca un pericolo poiché, appropriandosi del linguaggio e della
capacità di creare storie, potrebbe “hackerare” la civiltà umana e portare alla sua
distruzione (Harari 2023).
Il discorso pubblico e istituzionale su questi temi pone importanti interrogativi alla
normativa nazionale e sovranazionale riaccendendo il dibattito tra esigenze di
sicurezza preventiva, diritto alla tutela della privacy, e rischi di sorveglianza
pubblica di massa. Le crescenti attese sull’intelligenza artificiale vanno di pari
passo con una sorta di riduzione della fiducia nella razionalità umana giudicata
preda delle emozioni o di un «pensiero debole»; una «razionalità limitata» incapace
di affrontare situazioni complesse (Ardigò 1988).
A partire da tali premesse, la Call Human-centric approach to Artificial Intelligence
intende stimolare una riflessione su sfide e rischi negli sviluppi dell’intelligenza
artificiale, partendo da una domanda centrale che guida il ragionamento su questi
temi: quali limiti per una sua sostenibilità ecologica e umana? Si invita quindi la
comunità accademica a presentare contributi tesi a indagare, in chiave inter, multi
e transdisciplinare le implicazioni etiche, sociali, culturali ed economiche per la
sicurezza umana, correlate agli sviluppi e alle applicazioni dell’IA, nonché le
trasformazioni e gli impatti sulla società, in particolare sulle istituzioni educative, in funzione della salvaguardia della libertà e del benessere delle persone e delle
comunità.
Appare urgente inoltre integrare tale prospettiva con un’appropriata consapevolezza
ecologica ed ecosistemica, fondata sulle interrelazioni e le interconnessioni tra le
comunità umane e gli ecosistemi che ne garantiscono la vita, adottando quindi una
prospettiva sistemica e un pensiero complesso, in grado cioè di prendere in esame
gli effetti di reciprocità tra tutte le variabili coevolutive.
La Call intende quindi approfondire il tema dell’IA anche allo scopo di offrire analisi
e proposte che possano orientare verso processi di condivisione ed elaborazione di
buone pratiche, grazie al concorso di ricerche scientifiche provenienti da diversi
ambiti: dalla filosofia alla sociologia, dalla storia alla scienza politica, dal diritto
all’economia, dalle scienze dell'educazione alla psicologia, dalla medicina alle
scienze della vita, dall’antropologia all’etica e alle religioni.