Come è cominciata?
Quando è successo? Quando ci siamo svegliati e abbiamo capito che l’intelligenza artificiale non sarebbe stata più soltanto un ambito specifico di esperti, ingegneri, informatici, programmatori o nerd incalliti?
Come ogni grande rivoluzione che si rispetti il criterio chiave è stato l’accessibilità. Per questo sarà utile ripercorrere come esempio emblematico alcune tappe dalla fondazione di OpenAI al lancio di ChatGPT.
OpenAI, come si intuisce dall’aggettivo open, nasce come un’organizzazione no-profit, con un finanziamento iniziale di 1 miliardo di dollari proveniente dai suoi fondatori e sostenitori, tra cui spicca anche Elon Musk, e l’acceleratore di startup più importante al mondo, Y Combinator. Nel corso del tempo, dall’anno della sua fondazione, nel 2015, ingenti finanziamenti sarebbero arrivati anche da Microsoft.
L’obiettivo dichiarato è sviluppare un’IA generale (AGI – Artificial General Intelligence) che possa portare benefici all’umanità intera. Per AGI si indica un’intelligenza artificiale con capacità cognitive paragonabili a quelle umane e che, a differenza dell’IA ristretta, specializzata in compiti specifici, può apprendere, ragionare e adattarsi a diversi contesti senza essere programmata per uno scopo preciso. Assomiglia dunque a un’intelligenza artificiale “da fantascienza” che proietta paure e scenari distopici o utopici.
Al momento non si sa quanto sia lontano l’obiettivo AGI, potrebbero volerci ancora molti anni o potremmo essere a un passo. Quello che sappiamo di sicuro è che di open nel suo significato proprio, ossia aperto, accessibile, è rimasto solo il nome dell’azienda del CEO Sam Altman, infatti già nel 2019, con la necessità di accogliere ingenti fondi di Microsoft e la preziosa collaborazione con la sua divisione Azure, OpenAI ha annunciato la creazione di una divisione dell’azienda chiamata OpenAI LP, presentata come «un ibrido tra una non profit e un’azienda a scopo di lucro”. Facciamo quindi un balzo in avanti e arriviamo al lancio di ChatGPT.
Il popolare LLM (Large Language Model), creato proprio da OpenAI, è stato rilasciato per la prima volta al pubblico il 30 novembre 2022. In Italia, il servizio è stato disponibile fin da subito, ma il 31 marzo 2023 è stato temporaneamente bloccato dal Garante per la protezione dei dati personali per motivi legati alla privacy. Dopo alcune modifiche da parte di OpenAI, il servizio è stato riattivato in Italia il 28 aprile 2023.
Sarà proprio ChatGPT, la sua facilità di utilizzo, la sconcertante velocità con cui fin da subito elabora i dati a portare nel discorso pubblico il tema dell’intelligenza artificiale dividendo, come spesso accade sul web, la platea tra catastrofisti e tecnoentusiasti. Si sprecano gli articoli di prestigiosi giornali che usano il famoso chatbot per richiedere, ad esempio, consigli amorosi, pronti a minimizzarne l’affidabilità in seguito alle bizzarrie che avrebbero ottenuto in risposta: articolo
A dispetto di paure e scetticismo, ChatGPT oggi ha molti concorrenti, tra cui Gemini di Google e Claude di Anthropic, per citarne due. Tuttavia, è evidente che ChatGPT mantenga ancora il primato in termini di prestigio, guadagnato nelle prime settimane dal suo lancio. Questo successo ha reso la piattaforma estremamente popolare, al punto che il suo nome è diventato sinonimo di intelligenza artificiale nel discorso comune, proprio come in passato l’iPod è stato associato ai lettori MP3 o Windows ai sistemi operativi.
Cosa succede adesso?
Dal lancio di Chat GPT a oggi, oltre agli LLM, si sono moltiplicati gli utilizzi sempre più specifici dell’intelligenza artificiale.
Nel campo delle immagini Open AI ha lanciato DALL-E che genera immagini a seguito di un prompt. Sempre sul fronte della generazione di immagini è stato rilasciato Midjourney. Gli stessi Canva e Adobe hanno cominciato a implementare nei loro servizi l’utilizzo dell’AI. Sono poi nate le alternative non in cloud come Stable Diffusion. Questo solo per citarne alcuni.
Sia gli LLM sia i generatori di immagini sono addestrati con una mole importante di informazioni, fonti, articoli, video e audio. Non potevano dunque mancare generatori di suoni e musica come SUNO (seguite il link e giocate un po’) o applicazioni nel campo della traduzione, del doppiaggio e della generazione di video in altre lingue (guarda qui n.d.r.)
Se stai leggendo questo articolo e ancora non hai testato gli strumenti di IA più comuni, spero lo farai, perché per comprendere un fenomeno così veloce ed esteso non basta leggere opinioni o seguire youtuber. Prova, ad esempio, a far correggere una mail chiedendo di usare un linguaggio più formale, o a creare un quiz o persino a intrattenere una conversazione con il bot nello stile di un gioco di ruolo come Dungeon and Dragons: oltre che utile, lo troverai anche divertente e capace di offrire suggerimenti sempre vari. Inoltre, in questo modo potrai cominciare ad esplorare limiti e capacità di questi strumenti.
Questa è una transizione governabile?
Ad oggi è difficile affermare se questa transizione verso una società che fa utilizzo massivo dell’intelligenza artificiale sia governabile.
In primis dobbiamo affrontare il tema energetico. L’IA è una tecnologia altamente energivora, sia in fase di addestramento sia quando entra in funzione e gestisce le richieste da ogni parte del mondo. I recenti sviluppi geopolitici in Europa ci ammoniscono dal sottovalutare un aspetto così centrale. D’altra parte si ipotizza anche che proprio l’utilizzo e il continuo sviluppo delle IA potranno ottimizzare i processi energetici e renderli meno impattanti.
Esiste anche una criticità legata all’utilizzo dei dati presenti in rete, come dimostra la causa tra New York Times e OpenAI. ChatGPT, infatti, sarebbe colpevole di aver riportato integralmente alcuni articoli del giornale newyorkese violandone così il copyright. La causa, al momento ancora in corso, sta già portando dei risultati in quanto ChatGPT, nella sua versione web, deve adesso citare le fonti e ha raggiunto accordi con alcune testate (in Italia, con il gruppo GEDI).
Sul fronte della sicurezza, in Europa si sta sviluppando il discusso AI Act, una proposta legislativa dell’Unione Europea che mira a stabilire un quadro normativo per l’intelligenza artificiale il cui obiettivo principale è garantire che i sistemi utilizzati nell’UE siano sicuri, affidabili e rispettosi dei diritti fondamentali.
Ecco alcuni punti chiave dell’AI Act:
- classificazione dei sistemi di IA: la legge consentirebbe di classificare i sistemi di IA in base al loro livello di rischio (da minimo a inaccettabile);
- requisiti per i sistemi ad alto rischio: i sistemi di IA considerati ad alto rischio, come quelli utilizzati in infrastrutture critiche o nel settore sanitario, saranno soggetti a requisiti rigorosi in termini di trasparenza, sicurezza e controllo umano;
- divieto dei sistemi di IA a rischio inaccettabile: alcune applicazioni di IA, come i sistemi di sorveglianza di massa o quelli che manipolano il comportamento umano saranno vietati;
- tutela dei diritti fondamentali: la legge pone un’enfasi particolare sulla tutela dei diritti fondamentali, come la privacy e la non discriminazione;
- promozione dell’innovazione: l’AI Act cerca di bilanciare la regolamentazione con la promozione dell’innovazione, creando un ambiente favorevole allo sviluppo di IA etica e responsabile.
Forse proprio l’ultimo punto è quello decisivo per evitare che l’Europa si affidi solo esclusivamente a tecnologie americane o cinesi culturalmente e legislativamente più spregiudicate nell’utilizzo di dati dei cittadini.
I pericoli dell’accesso illimitato
Essere on line significa confrontarsi in qualche modo con episodi di cyberbullismo, che siano quelli nei commenti di Facebook e Instagram dove i “leoni da tastiera” danno il peggio di sé, o che siano quelli veicolati attraverso i più importanti giochi online che includono chat e possibilità di conversazione e di cui a farne le spese sono principalmente i più giovani (mi riferisco, per esempio, a Fortnite e Roblox).
Lo sviluppo massivo dell’IA e la sua facilità di utilizzo hanno scoperchiato anche utilizzi fraudolenti, sia per quanto riguarda la creazione di truffe (attraverso la clonazione di voci) sia per quanto riguarda l’utilizzo di immagini fraudolente e la creazione di deep fake o deep nude. Entrambi sono contenuti multimediali (video, immagini o audio) manipolati con l’intelligenza artificiale per sostituire in modo realistico il volto, la voce o i movimenti di una persona con quelli di un’altra.
Queste tecniche, fino a qualche anno fa appannaggio solo di esperti del settore, oggi sono, in una versione sicuramente meno professionale, disponibili per chiunque sappia eseguire procedure elementari con mouse e tastiera.
Non è questa la sede per inoltrarci in particolari tecnici, riprendo però un recente episodio avvenuto proprio a Genova. Il primo ottobre 2024, un professore associato della Facoltà di Architettura dell’Università di Genova è stato sospeso e indagato per aver utilizzato l’intelligenza artificiale per creare fotomontaggi pornografici delle sue studentesse. Il docente avrebbe scaricato foto dai profili social delle studentesse modificandole con software di IA per generare immagini esplicite e, successivamente, le avrebbe condivise in una chat privata su Telegram.
Questo episodio è un esempio lampante di quello che accade tutti i giorni, da quando l’accessibilità della tecnologia IA è di pubblico dominio: l’uso massivo di deep fake. Nel frattempo il professore risulta sospeso dal suo incarico e la chat in cui ha condiviso il materiale è stata chiusa, tuttavia, la vicenda è esemplificativa del fatto che non possiamo permetterci di escludere semplicemente il discorso sull’IA dalle nostre vite: conoscere ed educarci a comprenderne i continui sviluppi è la nostra assicurazione più importante per evitare conseguenze spiacevoli.
Quali riflessi sul mondo del lavoro?
Mentre sto scrivendo questo articolo sono consapevole che un assistente gratuito come ChatGPT, Claude, Gemini non può che essere un’opportunità. Personalmente mi occupo di fotografia, educazione digitale, stesura di progetti, scrivo comunicati stampa e partecipo a bandi. In certe fasi del mio flusso di lavoro, gli strumenti di IA semplificano enormemente le mie attività permettendomi di dare più spazio a parti dell’attività che richiedono la mia creatività, il mio pensiero e il mio intelletto.
Creare tabelle, elenchi, chiedere aiuto per individuare indirizzi mail specifici, riassumere il contenuto di mail ricevute, farsi aiutare in faccende burocratiche complesse, rappresenta personalmente un miglioramento delle mie condizioni lavorative senza nessuna possibilità che l’IA mi sostituisca. Di recente ho sentito questa frase più verosimile: “l’IA non sostituirà l’uomo, ma l’uomo con l’IA sostituirà l’uomo senza IA”. Severa, ma probabilmente giusta. In questa visione, infatti, l’IA è sempre uno strumento nelle mani dell’uomo che può scegliere quale utilizzo farne.
Oggi è difficile immaginare un settore lavorativo non contaminato dagli sviluppi dell’IA, provo a portare solo qualche esempio di ciò che potremmo chiamare lavoro di ufficio e che riguarda quasi tutti i lavoratori:
- Medicina: medici e infermieri, grazie all’IA che supporta diagnosi e trattamenti, avranno uno sguardo sempre più approfondito, capace di cogliere sfumature (di una radiografia, per esempio) che l’occhio umano non sa cogliere, ma non potrà sostituire il giudizio clinico, ci sarà sempre bisogno di un medico, della sua empatia e della sua capacità di discernere per elaborare una diagnosi.
- Trasporti: autisti di camion e taxi, persino bus, vedranno il loro settore cambiare totalmente nei prossimi anni. I taxi e i bus a guida autonoma sono già presenti in alcune città cinesi e americane. Siamo sicuri però che non serviranno supervisori del processo, autisti in grado di addestrare o ci saranno leggi che impongono la presenza del personale umano? (guarda qui n.d.r.)
- Educazione e formazione: insegnanti, educatori e formatori già oggi possono farsi aiutare nella stesura di materiale personalizzato (magari per DSA), nella preparazione di schemi, tabelle valutative, quiz a risposta multipla, raccolta di informazioni. Il tutto deve essere uno strumento nelle mani del docente o del formatore che lo verifica e lo utilizza per rendere il flusso di lavoro più agevole o la lezione più accattivante (eventualmente anche con la creazione di immagini in diretta durante la lezione che riprendano l’argomento trattato).
- Infine, possiamo includere nel ragionamento anche lavori più propriamente manuali: pensiamo a una persona che fa l’elettricista. Spesso questo tipo di mansioni sembrano essere considerate esenti dall’impatto dell’IA, ma non ne sono del tutto convinto. Una persona che fa l’elettricista è spesso un* liber* professionista che ordina materiale da fornitori, redige fatture, crea tabelle per monitorare entrate e uscite o stila una lista di clienti per promuovere le sue competenze. In tutte queste mansioni può avvalersi dell’aiuto delle IA. Inoltre, stiamo assistendo a un importante sviluppo della domotica, l’insieme delle tecnologie che automatizzano, controllano e ottimizzano gli impianti di una casa (compreso quello elettrico) o di un edificio, migliorandone il comfort, la sicurezza e l’efficienza energetica. Per fare un esempio pratico, pensa al controllo da remoto (da smartphone) di luci, riscaldamento, serrature, elettrodomestici, allarmi o telecamere. L’elettricista che si specializza nel passaggio alla domotica avrà un vantaggio competitivo enorme rispetto all’elettricista tradizionale. I sistemi come Alexa, che attualmente governano gli impianti (spesso con scarso esito), miglioreranno drasticamente la loro capacità di comprendere gli input umani e anche questo traguardo sarà raggiunto attraverso l’implementazione sempre maggiore di IA.
Conclusioni
La rapida evoluzione dell’intelligenza artificiale sta trasformando radicalmente la nostra società e il nostro vivere quotidiano, portando con sé enormi opportunità e altrettante sfide etiche, sociali e normative.
Da un lato, strumenti come ChatGPT, Gemini sistemi di IA, stanno democratizzando l’accesso a tecnologie un tempo riservate a pochi esperti, aprendo nuove strade nel mondo della comunicazione, del lavoro e della creatività. Dall’altro, episodi come il caso del professore sopra citato, evidenziano i pericoli connessi a un uso scorretto della tecnologia, in cui deep fake e manipolazioni digitali (stiamo già assistendo a una sempre maggiore crescita delle fake news on line a scopo politico o economico) possono risultare una grossa sfida per la privacy e la prevenzione di atti di cyberbullismo.
In conclusione il mio personale invito è conoscere, testare, comprendere ed essere formati e informati per non farsi travolgere da una rivoluzione che è già iniziata e che abbiamo il dovere di guidare nella giusta direzione.
Daniele Bencivenga, educatore



