Senza categoria

Chat GPT e la Natura Artificiale

By 20 Aprile 2023 No Comments

Chat GPT e la Natura Artificiale

Premessa obbligatoria:
non sono un’entusiasta dell’intelligenza artificiale ma neanche un detrattore.

Chat GPT non mi sorprende, non mi spaventa, non mi induce a pensare a catastrofiche minacce per l’umanità. Semplicemente mi annoia. Dopo qualche ora, spesa a soddisfare qualche mia curiosità con l’utilizzo di Chat GPT, ho immediatamente percepito un senso di monotonia e di inutilità dello strumento. Per la precisone è meglio dire che non ne sentivo il bisogno. Per mia natura preferisco ricorrere alla fonte della conoscenza, ai testi originali e, quando posso, alla lettura integrale di un contenuto. Le mediazioni le trovo riduttive e poco solide e in generale mi spiazzano creandomi uno sgradevole senso di sfiducia.

 Preferisco navigare fra le informazioni, farmi trascinare da associazioni casuali, farmi distrarre da un risultato inatteso, rimanere sorpreso da un testo o un video che non avrei mai cercato.  Per ciò che mi riguarda Google e Wikipedia sono più che sufficienti: non sono assertivi, si affidano ai link (una delle più grandi scoperte dell’umanità) e si presentano come strumenti a supporto delle mie ricerche e non come sapientoni tuttologi. A dirla tutta mi sembra un passo indietro dell’universo digitale perché mi nasconde lo spessore e la meraviglia dell’enorme deposito di conoscenza accumulato nel web in questi ultimi anni.

Ma in fondo, a ben pensarci, mi danno fastidio tutti gli innesti di AI nella nostra vita: amo l’ordine cronologico e casuale e mi irrito quando Facebook pretende di mettere in ordine i post di mio interesse, mi innervosisce l’algoritmo di Netflix di raccomandazione che da sempre mi nasconde i film che preferisco, mi sconcerta sapere che la mia TV regola i colori e la luminosità in base una sua presunta visione di immagine ottimizzata.  Idiosincrasie personali ovviamente.

Va da sé che il dibattito in corso su Chat GPT non si incentra sul carattere di utilità del mezzo ma sulla sua pericolosità e, grazie ad un intervento del Garante per molti versi surreale, alla sua inadeguatezza giuridica.

Ci sono diversi elementi che più di altri rendono bizzarra l’idea di oscurare questo servizio in Italia: ma il più strano di tutti è relativo ai meccanismi di verifica dell’età.  Nonostante sia chiaro a tutti che qualsiasi meccanismo adottabile verrebbe agilmente eluso dal più ingenuo degli adolescenti, c’è ancora chi pensa  che l’intelligenza artificiale si possa interdire o semplicemente arginare verso i minori. Dico subito la mia: non credo che gli effetti nocivi del digitale sui minori (rischio più che evidente!) possa essere limitato con i classici divieti “alla fonte”. Senza la crescita di una nuova consapevolezza sociale e educativa qualsiasi provvedimento è destinato ad arenarsi nella liquidità di una società incapace di comprendere e affrontare un fenomeno più grande di lei.

Il caso di Molly Russel è del 2017

Una quattordicenne che si è tolta la vita per una forma di depressione autolesionistica apparentemente causata dai social media. In seguito al suicidio della giovane ragazza si è celebrato un processo che rappresenta uno spartiacque storico nell’universo digitale. 

Gli inquirenti hanno obbligato i social media interessati (in primo luogo Instagram) a consegnare i dati di navigazione di Molly. La ragazza, in pochi giorni, aveva avuto accesso a circa 6.000 post autolesionistici e messo un like a 1.500 di essi. Gli esperti e i periti si sono detti scioccati da quei contenuti e molti hanno confessato di non essere riusciti a concludere l’analisi di tutti i post. Molly è stata vittima del più classico dei Bias social: un bombardamento virale di contenuti simili, un tunnel di messaggi osceni unidirezionali che l’ha scaraventata nell’inferno. Qualcuno ha obiettato che non tutta la colpa può essere addossata a Instagram e probabilmente  potrebbe esser vero, ma certamente il sistema di moderazione e di raccomandazione dei social ha fallito.

Oggi Meta conta più di 15.000 moderatori (umani) che vagliano migliaia di segnalazione quotidiane di utenti e agenti automatici (non-umani).

Ma la rimozione dei contenuti pericolosi o osceni è ancora un problema aperto. Perché?

Per comprendere l’impotenza dei responsabili dei social media e la difettosità dei sistemi di moderazione bisogna risalire alle caratteristiche tecnologiche degli algoritmi di intelligenza artificiale. Qualcuno parla di intelligenza “emergente” cioè dell’emersione imprevedibile di comportamenti non progettati a priori. In ogni caso possiamo affermare che questi algoritmi possono produrre effetti incontrollabili.

Per la prima volta la scienza, la scienza digitale per la precisione, ha prodotto una tecnologia che produce effetti che non sono stati programmati ma semplicemente desiderati.Il punto di avvio di tutte le ricerche sull’intelligenza artificiale andate a buon fine non si è mai basato su una ipotesi di ricostruzione dei circuiti logici o inferenziali che costituiscono il  ragionamento umano ma semplicemente sulla riproduzione fisica e meccanica del cervello, ovvero dell’hardware che sta la base dell’intelligenza umana. 

 

Le reti neuronali si basano su una modellazione di qualcosa di simile ad un cervello (fatto di neuroni e sinapsi) e imitano il funzionamento dell’organo dove si presume risiedono le nostre capacità di elaborazione razionali, sentimentali e di linguaggio. Una ipotesi quasi alchimistica che si è rilevata vincente: riprodurre la fisica del cervello umano per ottenere effetti metafisici come la comprensione linguistica e l’imitazione di comportamenti umani.

Ovviamente sto semplificando: gli algoritmi, combinati con  la disponibilità di hardware sempre più potenti e sinergici e la disponibilità di una biblioteca digitale di dimensioni infinite, diventano sempre più sofisticati e sempre più efficaci nelle fasi apprendimento. Ma il punto di partenza è quello di uno dei padri dell’intelligenza artificiale: per Marvin Minsky non c’era infatti una vera differenza tra l’essere umano e le macchine. Gli esseri umani  non sono altro che delle “macchine di carne”, i cui cervelli sono costituiti da una miriade di “agenti” semi-autonomi per niente intelligenti, un po’ come le reti neuronali. Un’idea “barbara” direbbe Alessandro Baricco che da tempo analizza con arguzia lo sviluppo di una civiltà digitale che fa a pezzi le certezze fondanti della nostra millenaria cultura basata sulla razionalità metodologica e sull’approfondimento scientifico. Di fatto Chat GPT è un motore statistico che attacca lettere e parole secondo una sequenza sintattica determinata dalla scansione di miliardi di testi e che produce i suoi risultati grazie ad una serie di agenti interattivi che a loro volta distillano risultati “conversazionali” a causa della sua somiglianza con un cervello umano. Questo produce intelligenza? Consapevolezza? Un qualcosa simile ad un Io? Non ci è dato saperlo perché poco sappiamo in generale di cosa sia l’intelligenza umana, la consapevolezza e in generale la nostra coscienza. A parità di struttura fisica con il cervello (per quanto digitale) Chat GPT conversa come un essere umano e questo deve bastarci.

Ma torniamo a Molly e alle logiche di moderazione dei sistemi di raccomandazione. Come è possibile immaginare, la rimozione dei contenuti perversi non cambia la logica degli algoritmi sottostanti che, privi di principi etici, continueranno a scandagliare le nefandezze che gli utenti rilasciano sui social. Una sorta di tumore impazzito che fa degli algoritmi di raccomandazione agenti in grado di trovare la strada per aggirare qualsiasi ostacolo. E come Chat GPT questi algoritmi adottano reti neuronali privi di uno strato semantico e dunque addestrati solo per accrescersi e affinare i loro risultati.

 E qui lo snodo più importante: abbiamo adottato modelli fisici e statistici e che ignorano il senso del loro scopo. Questi li rende molto simili ad un sistema naturale anziché umano. L’intelligenza artificiale è nuova natura di cui conosciamo la composizione molecolare, le caratteristiche organiche, le logiche di riproduzione ma sconosciamo la sua resilienza, la sua forza, la sua capacità evolutiva. Per chi volesse approfondire il concetto di algoritmo come nuova natura consiglio la TED di Kevin Slavin, datata ma ancora valida, a questo link.

Ma se l’intelligenza artificiale è nuova natura l’uomo è ad un nuovo punto zero.

Deve imparare a conoscerla, a conviverci, a ridurre la sua “naturale” tendenza a prendere il sopravvento. Oscurare Chat GPT non può essere la soluzione almeno di voler spegnere la più preziosa risorsa che la tecnologia ci ha regalato negli ultimi anni (per quanto noiosa o incline ad amplificare la perversione umana).

 

L’uomo da sempre fa i conti con il naturale e con le asprezze dell’ambiente in cui vive e sa benissimo che se non cura il vialetto che ha disegnato davanti casa o il muretto in pietra che delimita la sua proprietà, prima o poi la vegetazione se ne riapproprierà.  La stessa cura va riservata agli algoritmi di raccomandazione: gli interventi umani devono essere sistematici e strutturati e non serve sperare che la natura possa essere benigna o clemente. Questo, a ben pensarci, non è mai successo.

Come salvare la prossima Molly? Non solo cercando di eliminare tutti i lupi cattivi che si celano nel bosco ma ricorrendo a quei vecchi strumenti, improvvisamente screditati e caduti in disuso, come l’educazione, la scuola, l’attenzione genitoriale. E chissà che proprio l’intelligenza artificiale non ci faccia rivalutare le nostre migliori e nobili capacità umane.

Articoli suggeriti per te

Principi di DocAnalisi

I rischi della Over Automation

Vorrei un pollo

Uguali ma Diversi

About Giorgia Pisu

Aggiungi un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

  Subscribe  
Notificami