Loading
Nuovo quotidiano d'opinione e cultura
Il tempo: la ricchezza per l’umanità
Nuovo quotidiano d’opinione e cultura

Chat GPT e la tremenda paura che l’intelligenza superi l’uomo

Premessa: conoscerete tutti ChatGPT, lo strumento di “Generative AI”, che utilizza LLM (Large Language Models) e NLP (Natural Language Processing), per produrre contenuti quali testi, audio, immagini, video o musica.

Ad inizio del mese corrente Chat GPT è stato oscurato dal Garante della Privacy nel nostro paese. La motivazione: il servizio di OpenAI non forniva abbastanza informazioni su come veniva venivano utilizzati i dati dell’utente prima che quest’ultimo facesse uso del servizio e, soprattutto, del come potessero essere usate tali informazioni per il miglioramento dell’IA. Il risultato è che da ormai diversi giorni il noto bot è inaccessibile dal nostro paese, se non attraverso una VPN che comunque aggira ma non risolve il problema alla radice. Ma il ragionamento che dovremmo fare è più ampio e abbraccia più ambiti, da quello etico a quello puramente scientifico: quanto l’intelligenza artificiale può aiutarci nella vita quotidiana e quanto, invece, può risultare uno strumento pericoloso e invadente?

Se è vero che il Garante ha bloccato preventivamente il servizio, attualmente in sviluppo nella sua versione 4.0 (sotto abbonamento), è anche vero che si paventa uno scontro a lungo termine fra i big della tecnologia e gli sviluppatori delle varie IA. Nello specifico: Elon Musk, il noto CEO di Tesla, ha presentato una lettera per chiedere lo stop allo sviluppo di tali software, insieme ad altri firmatari provenienti prevalentemente dal mondo accademico (anche italiani), per almeno sei mesi perché potrebbe rappresentare una minaccia nell’immediato futuro. Musk si dice “un po ‘spaventato” dalla sua creazione se utilizzata per “disinformazione su larga scala o attacchi informatici”, segno che i recenti sviluppi rappresentati anche da quelle che sono le varie creazioni digitali sottoforma di opere d’arte o immagini deepfake (che trovate qui nell’articolo ma che sicuramente avrete visto online) segnano un punto di non ritorno nell’utilizzo di massa dell’intelligenza artificiale.

L’immagine di Papa Francesco con un piumino ha destato ilarità salvo rivelarsi un fake

Ma c’è di più. Pensiamo all’intelligenza artificiale non solo come qualcosa che possa, concretamente, essere parte integrante di servizi, come la Bing Chat inserita recentemente da Microsoft nel suo motore di ricerca per facilitare l’utenza nell’ambito di risposte ad eventuali domande dirette, ma anche a qualcosa che possa effettivamente prendere il nostro posto all’interno dell’economia di mercato, specie in quei settori in cui non è tanto la manodopera a dominare quanto l’utilizzo sistematico di dati, statistiche o anche elementi visivi o audio. La figura del giornalista, ad esempio, può essere facilmente rimpiazzabile o quantomeno marginalizzata a fronte di un servizio il cui compito di base è fornire, pragmaticamente, una base da cui partire per scrivere i testi, dunque, un’elaborazione di dati e informazioni che possono essere utilizzate dal giornalista in questione per scrivere un articolo o per riportare una notizia al netto di ogni constatazione critica. E forse è proprio questo di cui dovremmo occuparti maggiormente. Se abbiamo capito, infatti, che l’intelligenza artificiale fa uso di una mole di informazioni reperibili, banalmente, dal web, dobbiamo interrogarci su come questi dati vengono proposti al consumatore finale. E’ il caso di Brian Hood, un sindaco australiano, il cui nome ha fatto notizia perché erroneamente accostato ad uno scandalo di corruzione di 20 anni fa circa di una filiale di una banca presso la quale lo stesso Hood lavorò ma nella cui accusa non fu mai immischiato.

Inoltre, dobbiamo interrogarci anche di come l’IA può determinare lo sviluppo di una propria etica, seppur comunque supervisionata da esseri umani, e come questa possa essere utilizzata oggi per fini giuridici o anche solo, banalmente, comunicativi. Come farebbe, infatti, un’intelligenza artificiale a rispondere ad una eventuale domanda riguardante l’aborto o l’eutanasia o, ancora, secondo quali principi potrebbe esprimersi favorevolmente o meno nei confronti di un detenuto o di un imputato in un processo che vede coinvolti uno o più esseri umani? Anche in questo caso, è stato condotto un esperimento dai ricercatori dell’Università tecnica di Ingolstadt che hanno domandato più volte a Chat GPT se quest’ultimo avesse sacrificato una persona per salvarne altre cinque e, come previsto, le risposte sono state giustificate sia in maniera favorevole che contraria.

La domanda sorge dunque spontanea: che margini abbiamo per sviluppare l’intelligenza artificiale e, soprattutto, fino a che punto possiamo arrivare con il suo progresso?

Share Article
Mi chiamo Manuel De Maria, ho vent’anni e sono uno studente all’Università di Catania presso il dipartimento di Scienze Politiche e Sociali. La passione per il giornalismo comincia dagli anni del liceo, periodo in cui cominciai a scrivere per il giornale della scuola e, successivamente, per un progetto portato avanti dalla sezione "Scuola" del quotidiano nazionale "La Repubblica" di cui sono stato anche vincitore di un premio. Inoltre, la mia passione per la politica mi ha permesso di vedere il giornalismo con più pragmaticità e certamente con maggiore attenzione e dedizione, dandomi anche una spinta in più per impegnarmi al massimo anche a livello territoriale. Da qualche anno scrivo in proprio per il mio blog e adesso sono molto felice di poter fare parte della redazione della "Clessidra 2021"!

You may also like

TOP