L’ambizione di creare esseri artificiali capaci di emulare, o persino superare, le nostre abilità fisiche, motorie e cognitive è radicata nella storia dell’umanità. La mitologia greca ci offre un esempio emblematico con Talo, il possente gigante di bronzo, forgiato da Efesto e posto da Minosse a guardia dell’isola di Creta. Nelle antiche narrazioni, Talo veniva descritto come un “automa”, una creatura “dotata di volontà propria e autonomia di movimento”. Questa suggestiva figura, insieme a una ricca costellazione di miti e racconti analoghi ha affascinato filosofi, studiosi e artisti per millenni, lasciando un’impronta indelebile nel nostro immaginario collettivo e spingendo l’umanità a sfidare i propri limiti nel tentativo di trasformare il mito in realtà.
Dal telaio al chip
La Rivoluzione Industriale, tra il XVIII e il XIX secolo, segna la prima svolta decisiva in questo percorso, con la progressiva diffusione in Europa e nelle Americhe di macchine azionate da energia meccanica e da fonti energetiche inanimate, prima fra tutte il carbon fossile. Questi dispositivi, capaci di superare di gran lunga le capacità fisiche e motorie dell’uomo in molteplici attività, rivoluzionarono sia la produzione manifatturiera, grazie a innovazioni come il telaio meccanico, sia il trasporto di merci e persone, grazie alla locomotiva a vapore. Un ulteriore importante passo sarà compiuto tra ‘800 e ‘900 con la creazione dei primi calcolatori, antenati dei moderni computer. Questi dispositivi, inizialmente meccanici e poi elettronici, furono sviluppati per automatizzare compiti che tradizionalmente richiedevano l’intelletto umano, come il calcolo numerico, la memorizzazione di informazioni e l’esecuzione di operazioni logiche. A partire dalla fine del XX secolo, come ben sappiamo, i computer hanno progressivamente conquistato ogni spazio della nostra quotidianità, i nostri uffici, le nostre case, ed infine anche le nostre tasche, trasformando profondamente la nostra vita.
Le origini moderne dell’intelligenza artificiale
È nel secondo dopoguerra che nasce il concetto moderno di intelligenza artificiale: un campo di ricerca interdisciplinare che fonde informatica, matematica, ingegneria e neuroscienze con l’obiettivo di creare sistemi in grado di simulare processi cognitivi complessi. Gli storici sono concordi nel segnare l’inizio del lungo percorso verso la creazione di una intelligenza artificiale con la Conferenza di Dartmouth, svoltasi negli Stati Uniti nel 1956, a cui presero parte solo 10 scienziati. Fu John McCarthy, uno dei partecipanti, a proporre per la prima volta il termine “Artificial Intelligence” nel documento di invito alla conferenza. Nello stesso documento egli così scriveva riguardo alle prospettive di ricerca in ambito IA: “Lo studio procederà sulla base della congettura per cui, in linea di principio, ogni aspetto dell’apprendimento o una qualsiasi altra caratteristica dell’intelligenza possano essere descritte così precisamente da poter costruire una macchina che le simuli.” Per passare dalle congetture alla realtà ci vorranno più di 60 anni di ricerca, investimenti, intuizioni e fallimenti.
Il boom dell’IA nel XXI secolo
La data simbolo che segna il boom dell’intelligenza artificiale è il 30 novembre 2022, giorno del lancio di ChatGPT. Tuttavia, la rivoluzione silenziosa degli algoritmi era già in atto da quasi un decennio. Gli algoritmi di intelligenza artificiale sono ormai profondamente intrecciati nel tessuto della nostra vita quotidiana, dal lavoro all’intrattenimento, dalle decisioni d’acquisto alla formazione.
Ogni giorno, milioni di persone in tutto il mondo si affidano a strumenti di IA generativa per svolgere ricerche, creare testi, analizzare dati e molto altro. In questo scenario, i nostri dispositivi (Tablet, PC, Smartphone) sono la porta di accesso ad una rete globale di supercomputer, su cui complessi algoritmi elaborano in tempo reale le nostre richieste.
Anche in ambito medico l’IA sta trovando sempre maggiori applicazioni. Ad esempio, gli algoritmi di computer vision stanno dimostrando una notevole efficacia nell’analisi di immagini diagnostiche, come ecografie e radiografie, raggiungendo livelli di precisione che in alcuni casi superano le capacità dell’occhio umano. Allo stesso modo sistemi di IA generativa, come chatbot e assistenti virtuali, stanno emergendo come strumenti preziosi per il personale medico, supportando la formulazione di piani terapeutici personalizzati.
Perfino nel mondo dell’intrattenimento, l’IA è protagonista: quando scorriamo i social media, una rete di algoritmi analizza costantemente le nostre interazioni: ogni “like”, condivisione o video guardato (o ignorato) contribuisce a creare un profilo dettagliato dei nostri interessi e tratti della personalità. Questo profilo viene poi utilizzato per prevedere i contenuti più coinvolgenti per noi.
Questa rivoluzione tecnologica, tuttavia, non è priva di sfide. L’impatto dell’intelligenza artificiale sulle nostre vite e sul mercato del lavoro rappresenta un tema cruciale, che richiede un dialogo costante tra società civile, istituzioni e sviluppatori. Una cosa, però, è certa: l’intelligenza artificiale non è più il futuro, è il nostro presente. Per questo motivo, è essenziale acquisire le competenze necessarie per orientarsi in questo nuovo mondo. Ma come funziona, quindi, l’intelligenza artificiale? Quali sono i suoi componenti fondamentali? E quali sono i rischi e le opportunità che porta con sé? Proviamo a fare chiarezza, un passo alla volta.
La cassetta degli attrezzi dell’IA
Cosa sono e come funzionano gli Algoritmi
Un algoritmo può essere definito come un insieme finito di istruzioni, descritte in modo chiaro e non ambiguo, che deve essere seguito per risolvere un problema. In informatica, gli algoritmi sono utilizzati per trasformare uno o più input (ad esempio, i dati relativi al numero di visitatori al Colosseo durante il mese di maggio) in uno o più output desiderati (ad esempio, la media giornaliera dei visitatori nel mese considerato).
Il processo di progettazione di un algoritmo richiede una profonda comprensione del problema da risolvere e delle risorse disponibili. Nella programmazione tradizionale, il programmatore gioca un ruolo centrale: è lui infatti a definire passo dopo passo le istruzioni necessarie per raggiungere l’obiettivo, traducendole in un codice comprensibile alla macchina.
Il Machine Learning
Facciamo un esempio per chiarirci le idee. Immaginiamo di essere programmatori appassionati di felini, desiderosi di sviluppare un algoritmo capace di distinguere nelle foto i gatti dagli altri animali. Con un approccio tradizionale, saremmo costretti a scrivere manualmente un’infinità di istruzioni per descrivere nei dettagli le caratteristiche distintive dei gatti (dalla forma delle orecchie alla circonferenza media delle pupille). Sarebbe un lavoro interminabile! Invece, utilizzando una tecnica di Machine Learning chiamata “supervised learning”, basterà “addestrare” la nostra macchina mostrandogli una bella collezione di foto di gatti e di altri animali divise in due categorie: “foto di gatti” e “foto senza gatti”. Analizzando le immagini da noi fornite, l’algoritmo di ML sarà in grado di identificare progressivamente, e con sempre maggiore precisione, un ampio insieme di parametri utili per distinguere i gatti dagli altri animali (alcuni dei quali potrebbero non essere immediatamente evidenti per l’occhio umano). Dopo l’addestramento, potremo quindi utilizzare tale algoritmo per riconoscere istantaneamente le foto di gatti all’interno della nostra collezione. Non è tutto! In vero la potenza del Machine Learning si manifesta nella sua capacità di generalizzazione: infatti il nostro algoritmo sarà (quasi) infallibile anche nel riconoscere gatti che non ha mai visto prima, adattandosi a variazioni di pose, illuminazione, razze e contesti.
Grazie a questa straordinaria capacità di apprendere, di identificare relazioni complesse tra variabili e di risolvere problemi che sarebbe impossibile affrontare con la programmazione convenzionale, il Machine Learning sta trovando applicazione nei campi più disparati: dalla diagnostica medica alla guida autonoma, fino alla traduzione simultanea.
L’Intelligenza Artificiale
L’IA comprende un vasto insieme di sistemi hardware e software progettati per emulare e, in alcuni casi, superare specifiche capacità cognitive umane. Questi sistemi si distinguono per la loro abilità di interagire dinamicamente con l’ambiente circostante, apprendere da esperienze e dati, ragionare su problemi complessi e pianificare azioni future. Caratteristica fondamentale dei sistemi IA è la loro autonomia nel perseguire obiettivi predefiniti, prendendo decisioni in modo indipendente in ambiti precedentemente riservati all’intervento umano.
I Large Language Models
I Large Language Models (Grandi Modelli Linguistici, LLM) rappresentano una delle più significative innovazioni nel campo dell’Intelligenza Artificiale. Strumenti come ChatGPT o Gemini, basati su questa tecnologia, sono ormai utilizzati quotidianamente da milioni di persone in tutto il mondo. Ma cosa sono esattamente gli LLM? Essi sono algoritmi di IA in grado di comprendere il linguaggio umano e di generare contenuti testuali che risultano estremamente simili a quelli prodotti dall’uomo.
La loro straordinaria efficacia deriva da un lungo processo di addestramento, basato sull’elaborazione di un’immensa quantità di dati testuali, che spazia da opere letterarie a articoli scientifici, fino alle conversazioni online. Attraverso l’esposizione a questa mole colossale di informazioni, gli LLM acquisiscono una profonda conoscenza delle strutture semantiche, delle connessioni logiche e delle sfumature stilistiche del linguaggio umano. La loro capacità di generare risposte precise e pertinenti cresce proporzionalmente alla qualità e alla quantità dei dati utilizzati durante il processo di addestramento.
Dal punto di vista tecnico, gli LLM si fondano su architetture di reti neurali artificiali, sistemi computazionali che traggono ispirazione dal funzionamento del cervello umano. Queste reti sono costituite da molteplici strati di neuroni artificiali interconnessi. Ogni strato riceve informazioni da quelli precedenti, elabora i dati secondo specifici parametri e trasmette i risultati agli strati successivi, contribuendo alla creazione di un sistema di elaborazione linguistica altamente sofisticato.
I limiti dell’IA
La Black Box: l’enigma degli algoritmi
Il fenomeno della “Black Box” (o scatola nera) rappresenta uno degli aspetti più affascinanti e al contempo problematici nel campo dell’IA. Questo termine descrive una caratteristica peculiare degli algoritmi creati attraverso il machine learning: nonostante essi siano progettati e addestrati da esseri umani, i loro processi decisionali risultano spesso imperscrutabili persino per gli stessi programmatori che ne hanno supervisionato lo sviluppo.
Può sembrare paradossale, ma è proprio così: gli schemi e i pattern che un algoritmo di IA utilizza per generare un determinato output a partire da un input rimangono, nella maggior parte dei casi, inaccessibili alla comprensione umana. I meccanismi interni e i criteri decisionali emergono infatti autonomamente durante il processo di apprendimento, dando origine a modelli di una complessità tale da sfidare le capacità interpretative degli esperti. Di conseguenza, è praticamente impossibile determinare con certezza come e perché un algoritmo prenda determinate decisioni.
Questa mancanza di trasparenza solleva questioni significative. L’impossibilità di comprendere appieno il processo decisionale degli algoritmi complica notevolmente la validazione dei risultati e l’identificazione di eventuali distorsioni o errori. Non si tratta solo di una sfida tecnica: le implicazioni si estendono infatti all’ambito etico e legale, in particolare quando questi sistemi vengono impiegati in settori sensibili come la medicina, la finanza o la giustizia.
La questione della “Black Box” è diventata centrale nel dibattito contemporaneo sull’Intelligenza Artificiale. Tecnici, ricercatori, studiosi di etica e legislatori si confrontano sulla necessità di bilanciare l’efficienza degli algoritmi con la loro comprensibilità. La ricerca di soluzioni che possano rendere più trasparenti questi sistemi, senza comprometterne le prestazioni, rappresenta una delle sfide più urgenti nel campo dell’Intelligenza Artificiale.
Le Hallucinations: quando l’IA si sbaglia
Nel panorama in rapida evoluzione dell’Intelligenza Artificiale, è emerso un fenomeno tanto affascinante quanto problematico: le “Hallucinations”. Questo termine, preso in prestito dalla psicologia, descrive la tendenza dei sistemi di IA a generare risposte apparentemente plausibili ma false o fuorvianti, presentate come fatti reali.
Le “allucinazioni digitali” si manifestano in forme diverse: dai chatbot che inventano dettagliati resoconti di eventi storici mai accaduti, fino alle IA che citano articoli scientifici inesistenti, completi di autori, dati e metodologie fittizie. Questo problema non è affatto marginale: recenti studi stimano che circa un quarto delle risposte generate dall’IA contengono hallucinations, un margine di errore tutt’altro che trascurabile.
Le cause di queste allucinazioni sono molteplici. Spesso si verificano quando i modelli vengono interrogati su argomenti per i quali non sono stati adeguatamente addestrati, oppure quando i prompt (ovvero le domande formulate dagli utenti) risultano ambigui, imprecisi o mal strutturati. Inoltre, la struttura probabilistica di questi modelli, favorisce la generazione di risposte che sembrano corrette, anche quando non lo sono. Per affrontare efficacemente il fenomeno delle hallucinations è necessario implementare una strategia integrata articolata su diversi livelli d’intervento. In primo luogo, risulta essenziale potenziare la qualità e ampliare la diversità dei dati utilizzati nella fase di addestramento dei modelli. Parallelamente, è cruciale sviluppare architetture di intelligenza artificiale caratterizzate da una maggiore trasparenza operativa, in grado non solo di rilevare e comunicare eventuali incertezze, ma anche di quantificare il livello di affidabilità delle risposte generate. Di pari importanza è la sensibilizzazione degli utenti: occorre promuovere una comprensione più approfondita dei limiti intrinseci e dei margini di errore dei sistemi di IA e guidare gli utilizzatori verso la formulazione di richieste precise e ben strutturate, ottimizzando così l’interazione uomo-macchina.