Gary Marcus è diventato una figura centrale nel dibattito sull’intelligenza artificiale (IA), guadagnandosi il titolo di uno dei principali critici della tecnologia. Con un background accademico solido e una carriera nel settore IA, Marcus ha espresso preoccupazioni significative riguardo ai rischi immediati associati all’IA generativa, come ChatGPT.

Nato con una passione per la programmazione, Marcus ha iniziato a scrivere codice all’età di otto anni. La sua carriera accademica è stata influenzata da figure di spicco come Steven Pinker, con cui ha studiato scienze cognitive. Ha lavorato su vari aspetti dell’IA, co-fondando aziende come Geometric Intelligence e Robust.AI, che si concentrano sull’applicazione pratica delle teorie cognitive all’intelligenza artificiale.

L’Allerta al Senato

Nel maggio 2023, Marcus ha testimoniato davanti al Senato degli Stati Uniti, sedendosi accanto a Sam Altman, CEO di OpenAI. Durante la sua testimonianza, ha chiesto una regolamentazione rigorosa delle tecnologie IA, sottolineando la necessità di misure più severe per garantire che queste tecnologie siano utilizzate in modo responsabile e sicuro.

La Necessità di Regolamentazione

Marcus ha argomentato che l’IA generativa, in particolare, presenta sfide uniche che necessitano di un intervento normativo. Ha richiesto misure più severe per garantire che queste tecnologie vengano utilizzate in modo responsabile e sicuro. La sua testimonianza è stata caratterizzata da un forte appello all’azione, esortando il governo a non lasciare tutto all’autoregolamentazione delle aziende tecnologiche.

In un contesto in cui le tecnologie IA si stanno sviluppando rapidamente e le preoccupazioni pubbliche aumentano, Marcus ha messo in guardia contro l’atteggiamento “fai da te” che molte aziende hanno adottato finora. Ha sottolineato che la mancanza di un quadro normativo chiaro potrebbe portare a conseguenze imprevedibili e dannose per la società.

Il Ruolo delle Aziende Tecnologiche

Marcus ha criticato le aziende tecnologiche per il loro approccio spesso opportunistico e poco trasparente nello sviluppo dell’IA. Ha evidenziato come l’hype attorno all’IA generativa stia influenzando le decisioni aziendali e politiche, portando a una corsa frenetica all’innovazione senza considerare i potenziali rischi. Questa dinamica non solo mette a rischio la sicurezza dei consumatori, ma anche la fiducia pubblica nell’IA come strumento utile e benefico.

Le Preoccupazioni di Marcus sull’IA Generativa

Nel suo libro Taming Silicon Valley: How We Can Ensure That AI Works for Us, pubblicato da MIT Press, Marcus esplora i pericoli immediati posti dall’IA generativa. Le sue preoccupazioni sono ben articolate e affrontano vari aspetti che meritano attenzione.

Disinformazione

Uno dei rischi più gravi che Marcus evidenzia è la disinformazione. Con la capacità di generare contenuti in modo massiccio, i modelli di IA possono facilmente diffondere informazioni false e fuorvianti. Questo non solo compromette l’integrità delle informazioni disponibili, ma può anche influenzare il dibattito pubblico e le opinioni politiche. In un’epoca in cui le fake news possono diffondersi viralmente sui social media, la possibilità che l’IA amplifichi questo fenomeno è estremamente preoccupante.

Deepfake

Un’altra preoccupazione significativa riguarda la creazione di contenuti falsificati, come i deepfake. La tecnologia consente di produrre video e audio manipolati in modo così convincente che diventa difficile distinguere la realtà dalla finzione. Questo solleva importanti questioni etiche e legali, in particolare per quanto riguarda la privacy e l’uso improprio delle immagini delle persone. I deepfake possono essere utilizzati per danneggiare la reputazione di individui o per diffondere propaganda ingannevole.

Furto di Proprietà Intellettuale

Marcus affronta anche il tema del furto di proprietà intellettuale. I modelli di IA possono utilizzare opere esistenti per addestrarsi, portando a violazioni dei diritti d’autore. Questo non solo mina gli interessi degli autori e degli artisti, ma solleva anche interrogativi su come dovremmo trattare le opere generate dall’IA in termini di proprietà intellettuale.

Un Approccio Critico

Marcus non si considera un pessimista; piuttosto, è un realista che riconosce i limiti dell’attuale approccio all’IA. È critico verso i grandi modelli linguistici, che ritiene non siano stati in grado di risolvere i problemi fondamentali legati all’affidabilità e alla comprensione.

Sfide dell’Intelligenza Artificiale Attuale

L’intelligenza artificiale (IA) generativa ha fatto progressi notevoli negli ultimi anni, ma Gary Marcus evidenzia che ci sono ancora sfide significative che devono essere affrontate. Questi problemi non solo limitano l’efficacia dei modelli IA, ma sollevano anche preoccupazioni etiche e pratiche riguardo al loro utilizzo. Di seguito sono analizzate più in dettaglio le principali sfide che affliggono l’IA generativa, come descritto da Marcus.

1. Allucinazioni

Uno dei problemi più gravi con i modelli generativi è la loro tendenza a produrre allucinazioni. Questo termine si riferisce alla capacità dei modelli di generare affermazioni false o fuorvianti che possono sembrar vere a un osservatore superficiale. Le allucinazioni possono manifestarsi in vari modi:

  • Fatti Inventati: I modelli possono inventare dati o eventi che non esistono, come citazioni errate o nomi di studi non reali. Ad esempio, un modello potrebbe affermare erroneamente che un certo studio ha trovato una relazione tra due fenomeni, quando in realtà non è mai stato condotto alcuno studio del genere.
  • Confusione Contestuale: I modelli possono fraintendere il contesto delle domande o delle richieste, producendo risposte che non sono correlate al tema trattato. Questo può portare a malintesi significativi, soprattutto in situazioni critiche come la consulenza legale o medica.

Le allucinazioni non solo compromettono l’affidabilità dei modelli di IA, ma possono anche contribuire alla diffusione di disinformazione, specialmente in contesti in cui le informazioni generate vengono condivise senza verifica.

2. Scarso Ragionamento

Un’altra sfida fondamentale è il scarso ragionamento dei modelli generativi. Anche se questi sistemi sono in grado di elaborare enormi quantità di dati e generare risposte coerenti in molti casi, spesso falliscono nel risolvere problemi logici complessi. Alcuni esempi includono:

  • Errori Logici: I modelli possono produrre risposte illogiche a domande che richiedono un ragionamento deduttivo. Ad esempio, quando posti di fronte a enigmi o problemi di logica, i modelli possono arrivare a conclusioni errate o implausibili.
  • Incapacità di Contestualizzare: I modelli spesso mancano della capacità di considerare le informazioni in un contesto più ampio. Questo significa che, mentre possono riprodurre informazioni apprese, non comprendono appieno le relazioni tra diversi concetti o la rilevanza di certe informazioni in situazioni specifiche.

Questi limiti nel ragionamento portano a risposte incoerenti e a una mancanza generale di affidabilità nei risultati forniti dai modelli di IA.

Il Ruolo della Silicon Valley

Uno dei motivi principali dello scetticismo di Marcus rispetto all’IA è il modo in cui la Silicon Valley ha manipolato l’opinione pubblica e le politiche governative. La crescente preoccupazione per le pratiche delle grandi aziende tecnologiche ha motivato la sua transizione dalla ricerca all’attivismo politico.

Rischi e Opportunità Future

Marcus avverte che l’IA generativa è “stupida” ma allo stesso tempo “pericolosa”. La sua mancanza di affidabilità crea opportunità per abusi e manipolazioni da parte di attori malintenzionati. Nonostante non creda che l’IA generativa scomparirà, avverte che ci troviamo in una bolla finanziaria, con valutazioni a volte irrealistiche delle aziende del settore.

La Visione per il Futuro

Per Marcus, la vera sfida è garantire che l’IA lavori per il bene comune. Propone una regolamentazione più severa e un approccio più etico nello sviluppo delle tecnologie IA. In particolare, spera in un intervento legislativo che affronti i dodici principali rischi associati all’IA generativa elencati nel suo libro.

Gary Marcus offre una prospettiva critica e necessaria nel dibattito sull’intelligenza artificiale. Le sue osservazioni stimolano una riflessione profonda sulla direzione futura della tecnologia e le sue implicazioni etiche.

Print Friendly, PDF & Email