IA e Tu Allucinazioni, Grande Discussione sulle Grandi Aziende sull’IA e Lavoro, Lavoro, Lavoro

IA e Tu Allucinazioni, Discussione Aziende IA e Lavoro

Negli ultimi mesi ho letto glossari sull’IA per aggiornarmi sul vocabolario del nuovo mondo dell’IA generativa. Riconosco di essermi addentrato a fondo in questo argomento e di poter conoscere più cose dell’americano medio sull’IA, ma ho comunque supposto che alcuni concetti chiave associati all’IA generativa siano ampiamente noti e compresi. Parlare con un professore di giornalismo questa settimana mi ha mostrato che non è il caso: mentre spiegavo come gli strumenti di intelligenza artificiale abbiano la tendenza a “allucinare”, mi hanno guardato fisso e hanno detto: “Cosa significa?”.

“Allucinare” è una delle prime parole del vocabolario relative alla genAI che tutti dovrebbero conoscere. In parole semplici, significa che i motori dell’IA, come ChatGPT di OpenAI, hanno la tendenza a inventare cose che non sono vere ma che sembrano vere. Infatti, la Federal Trade Commission degli Stati Uniti ha iniziato a indagare su OpenAI questo mese riguardo al potenziale di falsità delle dichiarazioni del suo chatbot su persone. Da dove viene “allucinare” in un contesto di intelligenza artificiale? I ricercatori di Google DeepMind hanno coniato il termine grazioso nel 2018, dicendo di aver scoperto che i sistemi di traduzione neurale, o NMT, “sono suscettibili di produrre traduzioni altamente patologiche che sono completamente scollegate dal materiale di origine”.

Traduzioni altamente patologiche scollegate dal materiale di origine. Non sono un ingegnere, ma anche io so che è un modo molto gentile di dire che c’è qualcosa di molto sbagliato in quei sistemi.

La maggior parte dei glossari offre una spiegazione più diretta di una “allucinazione” dell’IA. Questa definizione è offerta da NBC News:

“Allucinazione: Le allucinazioni sono risposte inaspettate e sbagliate da parte dei programmi di intelligenza artificiale che possono verificarsi per ragioni ancora non del tutto conosciute. Un modello di linguaggio potrebbe improvvisamente proporre ricette di insalata di frutta quando stavi chiedendo di piantare alberi da frutto. Potrebbe anche inventare citazioni accademiche, mentire sui dati che gli chiedi di analizzare o inventare fatti su eventi che non sono presenti nei dati di addestramento. Non è ancora del tutto compreso perché ciò accada, ma può derivare da dati scarsamente rappresentativi, lacune informative e classificazioni errate.”

Per essere imparziale, ho chiesto un commento a ChatGPT chiedendogli di dirmi cosa significa “allucinare” in riferimento all’IA. Ecco la sua risposta:

Nel contesto dell’IA, il termine “allucinare” viene usato metaforicamente per descrivere la generazione di contenuti o informazioni che non si basano su osservazioni dirette o dati del mondo reale. Quando un sistema di intelligenza artificiale “allucina”, significa che produce output che possono somigliare o imitare certi modelli o caratteristiche trovate nei dati di addestramento, ma che in realtà non sono radicati nella realtà.

Il termine “allucinare” non è specifico dell’IA ed è stato preso in prestito dal suo utilizzo nel campo della psicologia. In psicologia, l’allucinazione si riferisce a percezioni o esperienze sensoriali che si verificano senza stimoli esterni. Queste percezioni non sono basate sulla realtà ma sono percepite come reali dalla persona che le sperimenta.

Nel contesto dell’IA, il termine viene usato metaforicamente per descrivere situazioni in cui gli output generati si discostano dalla realtà o introducono elementi che non sono presenti nei dati originali. Ad esempio, nel campo della generazione di immagini, un sistema di IA potrebbe produrre immagini che contengono elementi surreali o fantastici, che non si basano su oggetti o scene reali osservati nei dati di addestramento.

Il termine “allucinare” viene utilizzato per evidenziare la potenzialità dei sistemi di IA di generare output che vanno oltre ciò che viene direttamente osservato o esplicitamente istruito. Riflette la capacità degli algoritmi di IA di estrapolare, combinare o creare nuovi modelli, a volte producendo risultati inaspettati o immaginativi.

Un modo un po’ prolisso e contorto per un’IA conversazionale per dire che inventa cose, a mio parere. Se non sapessi meglio, direi anche che ChatGPT è un po’ difensiva.

Ecco altre novità sull’IA che meritano attenzione.

I lavoratori statunitensi non temono l’IA, ma temono l’erosione del lavoro

Il Pew Research Center e McKinsey hanno pubblicato entrambi rapporti questa settimana su come l’IA possa influenzare i lavoratori e i posti di lavoro, anche se rimangono molte domande aperte. Entrambi i rapporti meritano una lettura.

I lavoratori statunitensi “sembrano più speranzosi che preoccupati per l’impatto dell’IA sui loro posti di lavoro”, secondo lo studio del Pew.

Ingrandisci l’immagine
Pew Research Center

Lo studio mirava in parte a quantificare quali settori e lavoratori sono più esposti all’IA. Il Pew ha caratterizzato i lavori come “più esposti all’intelligenza artificiale se l’IA può svolgere completamente le loro attività più importanti o aiutarli.”

“Molti lavoratori statunitensi in settori più esposti non ritengono che i loro posti di lavoro siano a rischio – sono più propensi a dire che l’IA aiuterà più che danneggiarli personalmente. Ad esempio, il 32% dei lavoratori nel settore dell’informazione e della tecnologia sostiene che l’IA li aiuterà più che danneggiarli personalmente, rispetto all’11% che afferma che li danneggerà più di quanto li aiuterà”, ha scoperto lo studio.

Per quanto riguarda la questione se l’IA porterà a perdite di posti di lavoro, Pew ha affermato che la risposta a questa domanda rimane incerta “perché l’IA potrebbe essere utilizzata sia per sostituire che per integrare ciò che fanno i lavoratori”. E questa decisione, come tutti sappiamo, sarà presa dagli esseri umani – i manager che gestiscono queste aziende e che decidono se, come e quando utilizzare gli strumenti dell’IA.

“Consideriamo gli agenti del servizio clienti”, ha osservato Pew. “Le prove mostrano che l’IA potrebbe sostituirli con chatbot più potenti o potrebbe migliorare la loro produttività. L’IA potrebbe anche creare nuovi tipi di lavoro per lavoratori più qualificati – proprio come l’era di Internet ha generato nuove categorie di lavoro come sviluppatori web. Un altro modo in cui gli sviluppi legati all’IA potrebbero aumentare il livello occupazionale è quello di dare una spinta all’economia mediante l’aumento della produttività e la creazione di più posti di lavoro in generale.”

Quando si tratta di lavori con la maggiore esposizione all’IA, la situazione non è così sorprendente, dato che alcuni lavori – come il pompierismo – sono più pratici di altri. Quello che sorprende è che più donne che uomini sono probabilmente esposte all’IA nei loro lavori, ha detto Pew, basandosi sul tipo di lavoro che svolgono.

Nel frattempo, McKinsey ha presentato il suo rapporto “Generative AI e il futuro del lavoro in America”. La società di consulenza ha fornito una valutazione schietta sull’impatto dell’IA sul lavoro, affermando che “entro il 2030, le attività che rappresentano fino al 30% delle ore lavorate attualmente nell’economia statunitense potrebbero essere automatizzate – una tendenza accelerata dall’IA generativa”.

Ma c’è un possibile lato positivo. “Entro il 2030 potrebbero essere necessarie ulteriori 12 milioni di transizioni professionali. Man mano che le persone lasciano le professioni in diminuzione, l’economia potrebbe spostarsi verso lavori più remunerati. I lavoratori in lavori a basso salario sono fino a 14 volte più inclini a dover cambiare professione rispetto a quelli in posizioni a salario più elevato e la maggior parte avrà bisogno di competenze aggiuntive per farlo con successo. Le donne hanno 1,5 volte più probabilità di dover passare a nuove professioni rispetto agli uomini”.

Tutto ciò dipende, aggiunge McKinsey, dal fatto che i datori di lavoro statunitensi aiutino a formare i lavoratori per soddisfare le loro esigenze in evoluzione e si rivolgano a gruppi trascurati, come i lavoratori rurali e le persone con disabilità, per il loro nuovo talento.

Cosa significa tutto questo per te in questo momento? Una cosa è che i datori di lavoro stanno utilizzando l’IA per aiutare nella loro selezione del personale. Se stai cercando consigli su come cercare lavoro in un mondo con questi strumenti di selezione dell’IA, dai un’occhiata a questa utile guida su “The New Age of Hiring” di Laura Michelle Davis di ENBLE.

Le Big Tech parlano di IA durante le conference call sugli utili

Google/Alphabet, Microsoft e Meta (precedentemente noto come Facebook) hanno annunciato gli utili trimestrali questa settimana. E ciò che era interessante, ma non sorprendente, è quante volte l’IA è stata menzionata nelle dichiarazioni di apertura dei CEO e degli altri dirigenti, così come nelle domande poste dagli analisti di Wall Street.

Satya Nadella, CEO di Microsoft, la cui azienda offre una versione potenziata dall’IA del motore di ricerca Bing e strumenti di intelligenza artificiale per le imprese, ha menzionato l’intelligenza artificiale 27 volte nel suo discorso di apertura. Sundar Pichai, CEO di Google, che ha elogiato la potenza di Bard e degli altri strumenti di intelligenza artificiale di Google, ha menzionato l’IA 35 volte. E Mark Zuckerberg, CEO di Meta, ha menzionato l’IA 17 volte. Se stai cercando una lettura un po’ meno leggera, ti incoraggio a esaminare le trascrizioni tu stesso.

Da Zuckerberg, abbiamo sentito che “i contenuti consigliati dall’IA provenienti da account che non segui sono ora la categoria di contenuti in più rapida crescita nel feed di Facebook”. Inoltre, che “puoi immaginare molte modalità in cui l’IA potrebbe aiutare le persone a connettersi ed esprimersi nelle nostre app: strumenti creativi che rendono più facile e divertente condividere contenuti, agenti che agiscono come assistenti, allenatori o che possono aiutarti a interagire con aziende e creatori, e altro ancora. Questi nuovi prodotti miglioreranno tutto ciò che facciamo su entrambe le app per dispositivi mobili e il metaverso, aiutando le persone a creare mondi e gli avatar e gli oggetti che li abitano”.

Nadella, parlando di Bing, ha detto che è “l’esperienza di ricerca predefinita per ChatGPT di OpenAI, offrendo risposte più tempestive con collegamenti alle nostre fonti affidabili agli utenti di ChatGPT. Fino ad oggi, gli utenti di Bing hanno intrattenuto oltre 1 miliardo di chat e creato oltre 750 milioni di immagini con Bing Image Creator”.

E Pichai ha parlato di come la tecnologia AI sta trasformando la ricerca di Google. “Il feedback degli utenti finora è stato molto positivo”, ha detto. “Può rispondere meglio alle domande che le persone ci pongono oggi e allo stesso tempo sbloccare nuovi tipi di domande che la Ricerca può affrontare. Ad esempio, abbiamo scoperto che l’IA generativa può collegare i punti per le persone mentre esplorano un argomento o un progetto, aiutandole a valutare più fattori e preferenze personali prima di effettuare un acquisto o prenotare un viaggio. Vediamo questa nuova esperienza come un altro punto di partenza per esplorare il web, consentendo agli utenti di approfondire la conoscenza di un argomento”.

La rilevazione dell’IA incontra un altro ostacolo

La scorsa settimana ho condiviso una storia di ENBLE dell’editore scientifico Jackson Ryan su come un gruppo di ricercatori dell’Università di Stanford si è proposto di testare i “rilevatori” di IA generativa per vedere se potevano distinguere la differenza tra qualcosa scritto da un’IA e qualcosa scritto da un essere umano. I rilevatori non hanno fatto un buon lavoro, i ricercatori hanno notato che il software è di parte ed è facile da ingannare.

Ecco perché gli educatori e gli altri sono stati incoraggiati dalla notizia di gennaio che Open AI, il creatore di ChatGPT, stava lavorando a uno strumento che avrebbe rilevato il contenuto dell’IA rispetto a quello umano. Sembra che fosse una ricerca ambiziosa, perché OpenAI ha “silenziosamente scollegato” il suo strumento di rilevamento dell’IA, secondo quanto riportato da Decrypt.

OpenAI ha dichiarato che a partire dal 20 luglio non rende più disponibile AI Classifier, a causa del suo “basso tasso di accuratezza”. L’azienda ha condiviso la notizia in una nota aggiunta al post del blog che ha annunciato per la prima volta lo strumento, aggiungendo: “Stiamo lavorando per incorporare i feedback e stiamo attualmente studiando tecniche di provenienza più efficaci per il testo e ci siamo impegnati a sviluppare e implementare meccanismi che consentano agli utenti di capire se il contenuto audio o visivo è generato da IA”.

Il governo degli Stati Uniti continua a discutere delle normative sull’IA

Il leader della maggioranza al Senato, Chuck Schumer, ha continuato a tenere sessioni per informare il Senato sulle opportunità e i rischi legati all’IA, affermando questa settimana che c’è un “reale interesse bipartisan” nell’elaborare una legislazione sull’IA che “favorisca l’innovazione ma abbia le salvaguardie per prevenire le responsabilità che l’IA potrebbe presentare”.

Il Senato prevede di convocare altri esperti per testimoniare nei prossimi mesi, ha riferito Reuters, notando che all’inizio della settimana i senatori di entrambi i partiti hanno espresso preoccupazione per l’uso dell’IA per creare un “attacco biologico”. So che questa trama è già stata utilizzata in un film di fantascienza, solo che non ricordo quale.

Le osservazioni complete di Schumer si trovano qui.

L’interesse di Hollywood per il talento dell’IA aumenta mentre gli scioperi degli attori e dei registi continuano

Parlando di film e trame sull’IA, mentre gli scioperi degli attori e dei registi continuano, le compagnie di intrattenimento, non interessate alle questioni di immagine pubblica, hanno pubblicato offerte di lavoro per specialisti dell’IA mentre i creativi si univano al picchetto per timore che gli studi “prendano le loro sembianze o voci e le riutilizzino ripetutamente per poco o niente pagamento, e con poche notifiche”, ha dichiarato The Hollywood Reporter.

“Quasi tutti i proprietari degli studi sembrano essere interessati all’IA, che sia per contenuti, assistenza clienti, analisi dei dati o altri usi”, ha dichiarato il Reporter, notando che Disney offre uno stipendio base di $180.000, con bonus e altre compensazioni, per chi ha “l’ambizione di spingere i limiti di ciò che gli strumenti dell’IA possono creare e comprendere la differenza tra la voce dei dati e la voce di un designer, scrittore o artista”.

Netflix sta cercando un responsabile prodotto di IA che guadagni $900.000 l’anno, ha scoperto The Intercept, mentre il Reporter ha osservato che Amazon sta cercando un responsabile senior per Prime Video, con uno stipendio base fino a $300.000, che “aiuterà a definire la prossima grande novità nella localizzazione dei contenuti, nel miglioramento dei contenuti o nella loro accessibilità utilizzando tecnologie di IA generativa all’avanguardia e di visione artificiale”.

Come tutti sappiamo, l’IA non sta andando da nessuna parte e i lavori ne saranno influenzati. Ma le domande su come, quando e perché e chi viene compensato per cosa, dagli attori agli scrittori, dipenderanno dalle decisioni prese dagli esseri umani.

L’attore Joseph-Gordon Levitt, che ha anche creato la piattaforma collaborativa online HitRecord e ha trovato un modo per pagare i creativi per i loro contributi, ha scritto un articolo di opinione degno di nota ricordando a tutti che le IA vengono addestrate su qualcosa e che quella qualcosa di solito è il lavoro di altri che dovrebbero essere riconosciuti e pagati per i loro contributi.

Nota degli editori: ENBLE sta utilizzando un motore di IA per aiutare a creare alcune storie. Per saperne di più, consulta questo post.