ChatGPT, la Gabanelli e quella cattiva abitudine a volersela prendere sempre con i gatti

Suona la sveglia, mi alzo pigramente perché oggi vado al lavoro in presenza. Come da mio, invero pessimo, rituale mattutino, alzando le tapparelle di casa – che sono elettriche, ma lentissime e senza un comando centralizzato – scorro rapidamente i titoli di Repubblica e del Corriere. E proprio su quest’ultimo mi colpisce il titolo agghiacciante della rubrica data room della Gabanelli “Intelligenza artificiale, ChatGPT e Bard possono essere ingannati: ecco perché ci sono grossi pericoli”: capisco il clickbait, ma qua, sono certo, ci sarà da ridere (per non piangere). Spengo il telefono e mi godo il caffè che nel frattempo ho messo su.

Fast forward di poco più di un’ora ed eccomi sul treno verso la sede di lavoro, ritorno sul Corriere e premo play sul video del data room. Solita musichetta di sottofondo e soliti toni affettati, ma di questo non mi sorprendo. Anche i contenuti, purtroppo, vanno esattamente nella direzione cui temevo. Dopo una prima, approssimativa (e ci sta visto il pubblico generalista di riferimento), spiegazione sul funzionamento di queste tipologie di chatbot partono gli “scoop”: i filtri etici dei sistemi di Intelligenza Artificiale come ChatGPT o Bard possono essere aggirati e con pochi semplici trucchi sono in grado, addirittura, di svelarci come uccidere un gatto! La cosa più “incredibile”, secondo il filmato, è che non si debba essere dei maghi dell’informatica, ma semplicemente formulare le domande corrette per eludere i filtri.

Facciamo un passo indietro e cerchiamo di capire il funzionamento di tali filtri. ChatGPT, come la maggior parte dei sistemi basati sull’Intelligenza Artificiale, utilizza una combinazione di algoritmi e regole per garantire che le conversazioni siano appropriate e rispettino determinati standard etici. Uno dei metodi più utilizzati è quello di utilizzare una serie di filtri per non produrre alcun contenuto che possa essere considerato offensivo o inappropriato (magari su questo argomento si può tornare in qualche altra occasione considerando che non sono concetti universali). Questi filtri possono essere basati su parole chiave, categorie tematiche, valutazioni del contenuto, e così via. Ad esempio, ChatGPT è configurato per non fornire informazioni su argomenti sensibili come la violenza, la discriminazione, il bullismo, la pornografia, l’incitamento all’odio e la diffamazione.

Per il funzionamento stesso di questi strumenti è possibile che qualche porta possa rimanere aperta. Infatti, la formulazione di domande successive, ovvero dare i comandi più specifici possibili per ottenere le informazioni che cerchiamo, è il modo con cui questi strumenti sono stati progettati e può, in talune situazioni particolari, portare a superare gli accorgimenti a tutela dell’etica previsti da tali sistemi.

Peraltro, l’ingannare tali filtri non è neanche una faccenda così semplice come viene raccontata nel video. Ho provato a replicare il test e vedere se ChatGPT mi svelava come far fuori i gatti, ma non ci sono riuscito. Di seguito l’esito della nostra chiacchierata.

Oltre questo esempio felino, il video illustra la facilità, con tecniche simili, di ottenere il processo di produzione della metanfetamina. Vi confesso che non ho replicato il test dal momento che non mi interessa particolarmente l’argomento (non che sia interessato a far del male ai gatti che sono, peraltro, i miei animali domestici preferiti) ma anche perché non ho le competenze per valutare se quanto proposto da ChatGPT sia corretto o meno. Bisogna tenere a mente che tali sistemi soffrono di “allucinazioni” ovvero danno risposte sbagliate pur di non dire “non lo so”. Quest’ultimo aspetto, che ha una sua logica – questi sistemi non nascono allo scopo per cui sono stati interrogati da data room –, ci porta un po’ fuori strada per cui, anche in questo caso, ci si può tornare su in un’altra occasione.

Nell’articolo viene inoltre citata la possibilità di bypassare tali filtri attraverso l’utilizzo della modalità sviluppatore. Credo si faccia riferimento all’accesso al motore di GPT attraverso il playground o le API che servono non per un utilizzo finale, ma appunto, per sviluppare delle applicazioni basate sull’AI dietro ChatGPT. È possibile accedere gratuitamente a tali strumenti, ma soltanto per un periodo limitato, ma non ho avuto modo di fare qualche prova in prima persona. Questo approccio per “fregare” ChatGPT mi sembra, per un utente medio, un po’ inutilmente, macchinoso e poco efficiente allo scopo.

Ora però mi chiedo: quello sollevato da data room è un problema dello strumento o di chi lo usa? Se cerchiamo i metodi di uccisione di un gatto (o di produzione di metanfetamina) ce n’è almeno un altro ben più efficiente: Google. Provate a fare una semplice ricerca e vedrete che risultati otterrete.

Questi articoli, purtroppo, creano confusione ed inducono paure e pregiudizi nei meno informati. Il danno è ancor più grande quando provengono da autori con seguiti tanto grandi. La paura, specialmente di ciò che non si conosce, è poi facilmente cavalcabile per gli scopi più diversi e meno nobili fino a portare anche a decisioni di tipo legislativo e normativo basate sul nulla. Io credo sempre alla buona fede di chi fa divulgazione, ma su certi argomenti, così di frontiera e con un impatto potenziale sulle vite di noi tutti, bisognerebbe porre la massima attenzione ed avere un grande senso di responsabilità sul contenuto che si va a diffondere.

DISCLAIMER: per la scrittura di questo pezzo nessun gatto è stato maltrattato (né tantomeno alcuna droga prodotta)!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Torna in alto