Call for Paper and Submission. Anno 5 No. 1/Aprile, 2025

2024-04-05

Human-centric approach to Artificial Intelligence

La Call Human-centric approach to Artificial Intelligence mira a raccogliere studi e riflessioni sulle potenzialità e i rischi degli sviluppi dell’intelligenza artificiale (IA).
L’Intelligenza Artificiale (IA) rappresenta un concetto molto generico e ampio che ricomprende varie tecnologie specifiche, come l'apprendimento automatico, le reti neurali e l'apprendimento profondo, applicate a diversi ambiti di ricerca, sperimentazione e attività scientifiche (dalla medicina all’educazione, dall’ingegneria alla finanza ecc.). Le recenti discussioni sulla possibilità di esiti in qualche modo inaspettati o "emergenti" associati all'IA hanno in realtà a che vedere soprattutto con l’IA generativa, con l'apprendimento profondo nelle reti neurali (ispirate alla struttura del cervello umano), poiché queste si riferiscono a strutture generiche che non incorporano regole prestabilite o alberi decisionali (o altri strumenti come gli algoritmi genetici), ma devono essere addestrate su serie di dati coerenti per produrre alla fine risultati deguati (Higuera 2023).
La probabilità che informazioni incomplete e distorte, fake news e disinformazione possano avere un ritorno, producendo un effetto di “ingrandimento” attraverso l'IA generativa, può essere imprevedibile. C’è chi, come lo storico Yuval Noah Harari, ritiene che l’IA costituisca un pericolo poiché, appropriandosi del linguaggio e della capacità di creare storie, potrebbe “hackerare” la civiltà umana e portare alla sua distruzione (Harari 2023).
Il discorso pubblico e istituzionale su questi temi pone importanti interrogativi alla normativa nazionale e sovranazionale riaccendendo il dibattito tra esigenze di sicurezza preventiva, diritto alla tutela della privacy, e rischi di sorveglianza pubblica di massa. Le crescenti attese sull’intelligenza artificiale vanno di pari passo con una sorta di riduzione della fiducia nella razionalità umana giudicata preda delle emozioni o di un «pensiero debole»; una «razionalità limitata» incapace di affrontare situazioni complesse (Ardigò 1988).
A partire da tali premesse, la Call Human-centric approach to Artificial Intelligence intende stimolare una riflessione su sfide e rischi negli sviluppi dell’intelligenza artificiale, partendo da una domanda centrale che guida il ragionamento su questi temi: quali limiti per una sua sostenibilità ecologica e umana? Si invita quindi la comunità accademica a presentare contributi tesi a indagare, in chiave inter, multi e transdisciplinare le implicazioni etiche, sociali, culturali ed economiche per la sicurezza umana, correlate agli sviluppi e alle applicazioni dell’IA, nonché le trasformazioni e gli impatti sulla società, in particolare sulle istituzioni educative, in funzione della salvaguardia della libertà e del benessere delle persone e delle comunità.
Appare urgente inoltre integrare tale prospettiva con un’appropriata consapevolezza ecologica ed ecosistemica, fondata sulle interrelazioni e le interconnessioni tra le comunità umane e gli ecosistemi che ne garantiscono la vita, adottando quindi una prospettiva sistemica e un pensiero complesso, in grado cioè di prendere in esame gli effetti di reciprocità tra tutte le variabili coevolutive.
La Call intende quindi approfondire il tema dell’IA anche allo scopo di offrire analisi e proposte che possano orientare verso processi di condivisione ed elaborazione di buone pratiche, grazie al concorso di ricerche scientifiche provenienti da diversi ambiti: dalla filosofia alla sociologia, dalla storia alla scienza politica, dal diritto all’economia, dalle scienze dell'educazione alla psicologia, dalla medicina alle scienze della vita, dall’antropologia all’etica e alle religioni.

 

Le riflessioni possono essere sviluppate a diversi livelli.

A partire dal panorama fin qui descritto, la Special Issue proposta intende sollecitare la riflessione scientifica su diverse declinazioni e applicazioni dell’IA (Benanti 2022; Caporale, Palazzani 2023), compatibili con un approccio umanocentrico condiviso nel quadro di un ampio dibattito etico (Floridi 2021, 2022; Ammanath 2022). È auspicabile inoltre approfondire il collegamento e l’intersecarsi dello sviluppo e dell’uso dell’IA nell’ambito della trasformazione digitale, nel campo della medicina (ad esempio con importanti sviluppi per la prevenzione di malattie oncologiche tramite mappatura con un algoritmo – Vitali 2023), nel mondo del lavoro (una recente ricerca di Goldman Sachs prevede una forte riduzione di ore lavorative e la perdita di posti di lavoro in circa 2/3 delle mansioni esistenti – Mazza 2023), nel sistema educativo, nella sfera privata e relazionale, in riferimento al mutamento degli stili di vita, a una visione olistica di empowerment di comunità, alle sfide per un’ecologia integrale, tesa a rimettere la persona umana al centro degli interessi collettivi.

Solo a titolo esemplificativo e non esclusivo, la presente Call prenderà in esame studi e ricerche, di natura teorica ed empirica a livello macro, meso e micro sulle seguenti possibili aree tematiche:
- revisione sistematica della letteratura degli studi e delle ricerche condotte sul tema dell’IA, in riferimento all’approccio umanocentrico;
- contributi teorico-critici sulle basi concettuali e filosofiche dell’IA; - studi sugli sviluppi storico-giuridici dell’IA e sull’evoluzione della regolamentazione internazionale, europea e nazionale nel campo dell’IA per stabilire una governance e un controllo in materia;
- contributi relativi alle implicazioni etiche e alla percezione sociale dell’IA;
- studi relativi a linee guide sull’IA e a policy e raccomandazioni per investimenti e sistemi di valutazione dell’IA;
- studi su implicazioni etiche, sociali e ambientali determinati dall’applicazione della IA nella ridefinizione dei processi di lavoro e nelle organizzazioni;
- riflessioni teorico-critiche e/o ricerche empiriche su IA, benessere e sistema educativo/organizzativo;
- riflessioni teorico-critiche e/o ricerche empiriche sui sistemi di governance della IA;
- riflessioni teorico-critiche e/o ricerche empiriche su IA, welfare, territorio, orgnizzazioni e comunità;
- studi su rischi e impatti dell’uso dell’IA generativa nel campo dell’informazione, della comunicazione e dell’educazione (disinformazione, fake news, varie forme di manipolazione delle comunicazioni, teorie complottiste ecc.);
- studi sulle implicazioni nell’ambito della sicurezza e della difesa (Farruggia 2023).

La sottomissione deve essere accompagnata dall’indicazione della sezione per cui si candidata il contributo e alla Call a cui si fa riferimento.
1. sezione Saggi
2. sezione Rubriche

Tutti i Saggi sono sottoposti a referaggio attraverso la Double-Blind Peer Review.

È strettamente necessario che ogni proposta sia corredata di alcune informazioni indispensabili ai fini della pubblicazione, ossia:
● Nome e cognome degli autori e delle autrici;
● Affiliazione e/o ente di appartenenza;
● Ruolo ricoperto;
● Contatti di ciascun autore che contribuisce all’Issue;
● Indicazione della persona di contatto.

Occorre inoltre fare riferimento sia alle scadenze indicate, sia alle norme redazionali, il cui mancato rispetto sarà causa di esclusione.

Per la sottomissione dell’abstract e per ogni informazione su questa Call scrivere a:
redazione@quadernidicomunita.it

e per conoscenza ai curatori:

● Marco Filoni: m.filoni@unilink.it
● Filippo Maria Giordano: f.giordano@unilink.it
● Giorgio Grimaldi: g.grimaldi@unilink.it

Scrivere in oggetto: Call for Paper Anno V, n. 1/ Aprile, 2025. Human-centric approach to Artificial Intelligence

L’invio dei papers avverrà esclusivamente mediante registrazione dell’autore al portale online al seguente link:
https://www.quadernidicomunita.it/index.php/qdc/user/register
Le Linee guida editoriali sono disponibili al seguente link:
ITA:
https://drive.google.com/file/d/1T2T55dogkuFJabzK9s767baoCSqphLdh/view?usp=sharing
ENG:
https://drive.google.com/file/d/1ybTKeKYvL0KEYGKTJV0T79w6Ud3uPTx2/view?usp=sharing

 

LINGUA DEI CONTRIBUTI

Italian, English

SCADENZE
10 Luglio 2024
● Invio abstract (max parole 500) in inglese e italiano;
● 5 parole chiave (in inglese e italiano)

15 Luglio 2024
Conferma accettazione abstract

15 Novembre 2024
Sottomissione paper

15 Dicembre 2024:
Esito referaggio

31 Gennaio 2025
Revisioni e modifiche suggerite dai Referee

28 Febbraio 2025
Revisione editing finale

 

Per scaricare il testo completo della call: https://drive.google.com/file/d/1M-yVUGTDlyoGls-swU5hsDuhYhNbqIco/view