di Gianmichele Trotta
ChatGPT è l’intelligenza artificiale dell’azienda statunitense Open AI che, dal suo rilascio lo scorso novembre, ha attirato molte attenzioni su di sé. Grazie alle sue capacità discorsive, l’IA si è rivelata un’impressionante novità tecnologica, e il futuro ci dirà se si tratta di una semplice moda passeggera o di una vera innovazione. Recentemente però, un’inchiesta della rivista Times potrebbe aver messo in difficoltà il programma, cercando di far luce sul processo di sviluppo che pare nasconda una condotta controversa…
Lo sviluppo di ChatGPT
Il potenziale dell’intelligenza artificiale sviluppata da Open AI, azienda statunitense con sede a San Francisco, è innegabile. ChatGPT è in grado di parlare in maniera fluida di quasi qualsiasi argomento, sviluppando una conversazione che sembrerebbe “quasi umana”; tutto questo si è reso possibile grazie a centinaia di miliardi di parole trovate sul web e con le quali l’IA è stata “addestrata”. Già la “precedente versione” del programma aveva avuto uno sviluppo simile, ma soffriva di un problema piuttosto serio che l’ha resa incompatibile col mercato. Questa infatti, era spesso violenta; il comportamento era dovuto proprio al fatto che basasse la propria conoscenza sul linguaggio del web.
Per questo motivo ChatGPT, secondo la ricostruzione del Times, sarebbe stata sviluppata con un meccanismo di sicurezza basato anch’esso sull’intelligenza artificiale. Il suo funzionamento sarebbe molto simile a quello utilizzato dai social network come Facebook per censurare i contenuti violenti; per fare in modo che funzionasse però, questi contenuti dovevano essere etichettati come tossici. Ed è qui che entra in gioco la compagnia kenyana di sviluppo AI, l’azienda Sama, diventata partner in Outsourcing di OpenAI, costituendo un tassello indispensabile per lo sviluppo di ChatGPT.
L’inchiesta del Times
L’inchiesta del Times ha cercato di fare chiarezza proprio sul rapporto tra OpenAI e l’azienda di outsourcing a cui affidava il compito di etichettare i contenuti con incitamento all’odio, alla violenza o a sfondo sessuale. Secondo quanto riportato, la compagnia avrebbe pagato Sama una tariffa oraria di $12.50 per il lavoro; tuttavia, gli impiegati sarebbero stati pagati dalla propria azienda un’importo tra 1.32$ e 2$ l’ora per il gravoso compito a cui erano soggetti.
Dopo aver intervistato quattro lavoratori dell’azienda kenyana, il Times riporta che alcuni di questi avrebbero riscontrato disagi psicologici dopo aver svolto l’incarico; sarebbe questa la ragione che avrebbe contribuito alla fine del rapporto tra le due aziende, conclusosi nel febbraio 2022, circa 8 mesi prima del termine previsto inizialmente.
OpenAI è ora in trattativa con gli investitori per raccogliere fondi dall’ammontare di 29 miliardi di dollari, incluso un potenziale investimento di 10 miliardi da parte di Microsoft; ciò renderebbe l’azienda statunitense una tra le più prestigiose per lo sviluppo di intelligenze artificiale. Tuttavia, se quanto messo in luce dal Times si rivelasse veritiero, è importante che le aziende si assicurino che tutti gli impiegati vengano trattati in maniera etica; è su questo argomento che pone l’accento l’inchiesta della rivista statunitense.
Per essere non perdervi le news provenienti da tutto il mondo seguite Nasce, Cresce, Informa.
Potrebbero interessarti anche:
- Tutti gli appuntamenti astronomici da non perdere nel 2023
- Vaccino anti-Covid: uno studio dimostra che non aumenta il rischio di malattie cardiache
© RIPRODUZIONE RISERVATA