Nunzio Lionetti meriterebbe di guidare a Matera il rettorato della libera università dell’innovazione ( L.U.I.M) perché sa trattare una materia da area e vasta riflessione come l’opportunità o spauracchio, secondo alcuni, dell’impiego dell’intelligenza artificiale. Ne avevamo accennato in un articolo da pre campagna elettorale, https://giornalemio.it/cronaca/nunzio-determinato-da-bologna-a-matera-per-un-progetto-sulla-i-a/, e ci ritorniamo con questo che la chiude. Per farla breve aldilà di cifre,numeri, equazioni, massimi sistemi, per orientarsi nell’era degli algoritmi serve una nuova sociologia. L’uomo deve governare i processi innovativi, mettendoci testa, conoscenza, saperi, altrimenti è un robot o giù di lì, finchè errori e orrori di sistema non lo dichiareranno obsoleto. Buona lettura…Ci risentiamo dopo il voto del 25 e 26 maggio.

Per orientarsi nell’era degli algoritmi serve una nuova sociologia
A cura di Nunzio Lionetti
L’intelligenza artificiale non è solo una questione tecnologica: è materia da sociologi. La sociologia dell’intelligenza artificiale non nasce a caso, e basti pensare ai molti impatti dell’AI sulle nostre vite di lavoratori e privati cittadini, sui modelli organizzativi delle aziende. L’adozione generalizzata dell’intelligenza artificiale sta cambiando e cambierà le relazioni interpersonali, le dinamiche di gruppo e anche il rapporto tra esseri umani e conoscenza. L’AI, come noto, negli ultimi due o tre anni è diventata un fenomeno di massa grazia alla disponibilità di servizi di facile accesso, spesso gratuiti, che non richiedono competenze informatiche per essere usati. Oggi esiste un’intera costellazione di applicazioni, più o meno orientata sulla generazione di risposte, di immagini, video o contenuti testuali strutturati. L’intelligenza artificiale è un ingranaggio fondamentale dei “sistemi sociali uomo-macchina”: un intreccio di reti fatte di interazioni tra esseri umani e macchine autonome, intendendo con quest’ultima espressione sia oggetti fisici (come robot e veicoli a guida autonoma) sia i social media, piattaforme Web e, naturalmente, i Large Language Model dell’AI generativa. Queste reti vivono non solo nella dimensione online ma influenzano anche le relazioni sociali, l’economia delle imprese, la finanza (pensiamo al trading algoritmico), il sistema dell’istruzione e quello dei trasporti. Stiamo entrando in un’era in cui la tecnologia può svolgere attività umane come prendere decisioni e compiere azioni. Lo studio sociologico e psicologico delle interazioni uomo-macchina è vecchio di decenni, ma oggi il mondo è popolato di sistemi artificiali che per certi versi ragionano e agiscono come individui o gruppi di individui. Rispetto agli esseri umani, le macchine intelligenti sono più prevedibili e anche più coerenti nei loro comportamenti, poiché basano le loro scelte solo dati “oggettivi” (o presentati come tali) e su regole predefinite (nella programmazione), senza emotività. Al pari degli esseri umani, comunque, gli algoritmi “ragionano” e agiscono sulla base di obiettivi da raggiungere. In questi strumenti risiedono ovvi vantaggi pratici ma anche insidie nascoste, come i bias che tendiamo a ignorare, pur sapendo della loro esistenza.

L’innovazione per le aziende (vendor e utenti) è però spesso una rincorsa, dettata dalla volontà di stare un passo avanti agli altri o di recuperare un ritardo. E nell’informatica, rispetto ad altri settori, la velocità è un imperativo ancor più forte. La ricerca può comunque influenzare l’innovazione tecnologica, perché quest’ultima è anche un processo iterativo ovvero costruisce sull’esistente, corregge e migliora il passato, e può (o dovrebbe) tener conto delle lezioni della sociologia. L’AI può cambiare la società con modalità e tempi non necessariamente uguali a quelli dell’innovazione nelle aziende. Quando un prodotto viene immesso nel mercato, l’attività di studio e ricerca non si interrompe. Bisogna anche capire come quel prodotto impatti sulla società. La ricerca è un processo molto lento, e credo debba restare tale. Serve tempo per pensare e per comprendere il futuro. C’è un po’ di incertezza, l’impatto sulla ricerca potrebbe essere, innanzitutto, in termini di finanziamenti. Si possono però fare previsioni su quali saranno, nei prossimi anni, gli ambiti degni di maggiore attenzione da parte della sociologia. Credo che le prossime grandi scoperte arriveranno dalla sanità, dal turismo, dalla PA. Negli anni questi settori sono diventati sempre più industrializzati, di massa, e forse l’intelligenza artificiale permetterà di tornare a una maggiore personalizzazione, ma a costi sostenibili.
*Bias [pronuncia in italiano: /’bai-as/] nel contesto dell’Intelligenza Artificiale si riferisce a pregiudizi o inclinazioni sistematiche non intenzionali nei dati o nei modelli algoritmici che possono portare a decisioni o previsioni ingiuste. Questi bias derivano spesso dai dati di addestramento utilizzati per sviluppare algoritmi di Machine Learning, che possono riflettere pregiudizi storici o sociali esistenti. Esempio: Un algoritmo utilizzato per la selezione del personale potrebbe sviluppare un bias contro candidati di un certo genere o etnia se i dati storici su cui viene addestrato mostrano una predominanza di dipendenti di un diverso genere o etnia, portando così a una riproduzione di discriminazioni preesistenti.
