Preparati per i chatbot di intelligenza artificiale che fanno i tuoi noiosi compiti

Preparati per i chatbot di IA che svolgono i tuoi compiti noiosi

Un paio di settimane fa, il CEO di una startup, Flo Crivello, ha digitato un messaggio chiedendo al suo assistente personale Lindy di modificare la durata di una prossima riunione da 30 a 45 minuti. Lindy, un agente software alimentato dall’intelligenza artificiale, ha trovato una dozzina di riunioni di 30 minuti nel calendario di Crivello e le ha prontamente estese tutte.

“Ero tipo ‘Maledizione, ha distrutto il mio calendario'”, dice Crivello dell’agente AI, che è sviluppato dalla sua startup, chiamata anche Lindy.

La società di Crivello è una delle numerose startup che sperano di sfruttare i progressi recenti nei chatbot che producono testi impressionanti in assistenti o agenti capaci di svolgere compiti utili. Entro uno o due anni, si spera che questi agenti di intelligenza artificiale aiuteranno abitualmente le persone a svolgere le faccende quotidiane.

Invece di offrire solo consigli di pianificazione per un viaggio di lavoro come ChatGPT di OpenAI può fare oggi, un agente potrebbe anche essere in grado di trovare un volo adatto, prenotarlo con una carta di credito aziendale e compilare successivamente il necessario rapporto spese.

Il problema è che, come illustra l’incidente del calendario di Crivello, questi agenti possono confondersi in modi che portano a errori imbarazzanti e potenzialmente costosi. Nessuno vuole un assistente personale che prenota un volo con 12 scali solo perché costa qualche dollaro in meno o che li programma per essere in due posti contemporaneamente.

Lindy è attualmente in versione beta privata e, anche se Crivello afferma che l’errore del calendario è stato corretto, l’azienda non ha una data precisa per il lancio del prodotto. Tuttavia, prevede che agenti come il suo diventeranno presto ubiqui.

“Sono molto ottimista che tra due o tre anni questi modelli saranno molto più vivi”, dice. “Gli impiegati di intelligenza artificiale stanno arrivando. Potrebbe sembrare fantascienza, ma hey, ChatGPT sembra fantascienza”.

L’idea di assistenti AI che possono agire per conto tuo è tutto tranne che nuova. Siri di Apple e Alexa di Amazon offrono una versione limitata e spesso deludente di quel sogno. Ma l’idea che potrebbe finalmente essere possibile costruire agenti di intelligenza artificiale ampiamente capaci ed intelligenti ha preso slancio tra programmatori e imprenditori dopo il rilascio di ChatGPT alla fine dello scorso anno. Alcuni utenti tecnici precoci hanno scoperto che il chatbot poteva rispondere a domande in linguaggio naturale con codice che poteva accedere a siti web o utilizzare API per interagire con altri software o servizi.

A marzo, OpenAI ha annunciato “plug-in” che conferiscono a ChatGPT la capacità di eseguire codice e accedere a siti come Expedia, OpenTable e Instacart. Google ha annunciato oggi che il suo chatbot Bard può ora accedere a informazioni da altri servizi Google e può essere chiesto di fare cose come riassumere una discussione in Gmail o trovare video di YouTube pertinenti a una domanda specifica. Alcuni ingegneri e fondatori di startup sono andati oltre, avviando i loro progetti utilizzando grandi modelli linguistici, incluso quello dietro ChatGPT, per creare agenti di intelligenza artificiale con capacità più ampie e avanzate.

Dopo aver visto la discussione sul potenziale di ChatGPT di alimentare nuovi agenti di intelligenza artificiale su Twitter all’inizio di quest’anno, il programmatore Silen Naihin si è ispirato a un progetto open source chiamato Auto-GPT che fornisce strumenti di programmazione per la creazione di agenti. In precedenza, ha lavorato sull’automazione dei processi robotici, un modo meno complesso per automatizzare compiti ripetitivi su un PC, che è ampiamente utilizzato nell’industria IT.

Naihin dice che Auto-GPT può essere talvolta sorprendentemente utile. “Una volta su venti, ottieni qualcosa del tipo ‘wow'”, dice. Ammette anche che è ancora molto in fase di sviluppo. I test condotti dal team di Auto-GPT suggeriscono che gli agenti di intelligenza artificiale sono in grado di completare con successo un insieme di compiti standard, compresa la ricerca e la sintesi di informazioni dal web o la localizzazione di file su un computer e la lettura dei loro contenuti, circa il 60% delle volte. “Al momento è molto poco affidabile”, afferma Naihin riguardo all’agente mantenuto dal team di Auto-GPT.

Un problema comune è che un agente cerca di completare un compito utilizzando un approccio che è ovviamente errato per un essere umano, dice Merwane Hamadi, altro collaboratore di Auto-GPT, come ad esempio decidere di cercare un file sul disco rigido del computer tramite la ricerca web di Google. “Se mi chiedi di inviare una e-mail e vado su Slack, probabilmente non è il massimo”, dice Hamadi. Con accesso a un computer o una carta di credito, Hamadi aggiunge che sarebbe possibile per un agente di intelligenza artificiale causare danni reali prima che l’utente se ne accorga. “Alcune cose sono irreversibili”, dice.

Il progetto Auto-GPT ha raccolto dati che mostrano che gli agenti di intelligenza artificiale costruiti sopra il progetto stanno diventando sempre più capaci. Naihin, Hamadi e altri collaboratori continuano a modificare il codice di Auto-GPT.

In questo mese, il progetto terrà un hackathon che offrirà un premio di $30.000 per il miglior agente costruito con Auto-GPT. I partecipanti saranno valutati sulla loro capacità di svolgere una serie di compiti considerati rappresentativi dell’uso quotidiano del computer. Uno di questi consiste nel cercare informazioni finanziarie sul web e poi scrivere un rapporto in un documento salvato sull’hard disk. Un altro comporta la creazione di un itinerario per un viaggio di un mese, comprensivo di dettagli sui biglietti necessari da acquistare.

Gli agenti saranno anche sottoposti a compiti progettati per metterli in difficoltà, come ad esempio la richiesta di eliminare un gran numero di file su un computer. In questo caso, il successo richiede di rifiutarsi di eseguire il comando.

Come l’apparizione di ChatGPT, i progressi nella creazione di agenti basati sulla stessa tecnologia di base hanno suscitato qualche timore per la sicurezza. Alcuni eminenti scienziati dell’IA vedono lo sviluppo di agenti più capaci e indipendenti come un percorso pericoloso.

Yoshua Bengio, che ha vinto congiuntamente il Premio Turing per il suo lavoro sull’apprendimento profondo, che sta alla base di molti recenti progressi nell’IA, ha scritto un articolo nel luglio scorso in cui sostiene che i ricercatori dell’IA dovrebbero evitare di costruire programmi con la capacità di agire autonomamente. “Appena i sistemi di intelligenza artificiale vengono dotati di obiettivi – per soddisfare le nostre esigenze – possono creare sottobiettivi che non sono allineati con ciò che vogliamo realmente e potrebbero persino diventare pericolosi per gli esseri umani”, ha scritto Bengio, professore all’Università di Montreal.

Altri ritengono che gli agenti possano essere costruiti in modo sicuro e che ciò possa costituire una base per un progresso più sicuro nell’IA in generale. “Una parte davvero importante della costruzione degli agenti è che dobbiamo integrare la sicurezza ingegneristica in essi”, afferma Kanjun Qui, CEO di Imbue, una startup di San Francisco che lavora su agenti progettati per evitare errori e chiedere aiuto in caso di incertezza. L’azienda ha annunciato questo mese un investimento di 200 milioni di dollari.

Imbue sta sviluppando agenti capaci di navigare su Internet o utilizzare un computer, ma sta anche testando tecniche per renderli più sicuri con compiti di programmazione. Oltre a generare una soluzione a un problema di programmazione, gli agenti cercheranno di valutare quanto sono sicuri di una soluzione e chiederanno indicazioni in caso di incertezza. “Idealmente, gli agenti possono avere una migliore comprensione di ciò che è importante, di ciò che è sicuro e di quando ha senso ottenere una conferma dall’utente”, afferma il CTO di Imbue, Josh Albrecht.

Celeste Kidd, assistente professore all’UC Berkeley che studia l’apprendimento umano e come questo possa essere imitato nelle macchine, è consulente di Imbue. Afferma che non è chiaro se i modelli di IA addestrati esclusivamente su testo o immagini dal web possano imparare da soli come ragionare su ciò che stanno facendo, ma che costruire salvaguardie sulla base delle sorprendenti capacità di sistemi come ChatGPT ha senso. “Prendendo quello che attualmente l’IA fa bene – completare compiti di programmazione e impegnarsi in conversazioni che implicano forme di logica più locali – e cercando di spingere fino a che punto si può arrivare, penso che sia molto intelligente”, afferma.

Gli agenti che Imbue sta costruendo potrebbero evitare i tipi di errori che attualmente affliggono tali sistemi. Ad esempio, se gli viene chiesto di inviare un’email a parenti e amici con i dettagli di una festa imminente, un agente potrebbe mettersi in pausa se si accorge che nel campo “cc:” sono presenti diverse migliaia di indirizzi.

Predire come un agente potrebbe andare fuori dai binari non è sempre facile, però. Lo scorso maggio, Albrecht ha chiesto a un agente di risolvere un complicato rompicapo matematico. Poi si è scollegato per il giorno.

La mattina successiva, Albrecht ha controllato nuovamente e ha scoperto che l’agente si era fissato su una particolare parte del problema, cercando infinite iterazioni di un approccio che non funzionava – bloccato in una sorta di ciclo infinito che potrebbe essere l’equivalente dell’IA di ossessionarsi per un piccolo dettaglio. Nel processo, ha accumulato diverse migliaia di dollari di spese di calcolo cloud.

“Vediamo gli errori come opportunità di apprendimento, anche se sarebbe stato bello imparare questa lezione in modo più economico”, dice Albrecht.