Secondo quanto riportato dal Wall Street Journal, OpenAI avrebbe sviluppato un sistema per inserire una filigrana ai testi creati da ChatGPT, oltre che un tool in grado di rilevarla. Tali strumenti sarebbero pronti da circa un anno, ma l’azienda sarebbe internamente divisa sulla possibilità di rilasciarlo.
A quanto pare, OpenAI pur essendo conscia che una pubblicazione sarebbe responsabile e renderebbe l’utilizzo dell’IA più sicuro, sarebbe intimorita dal fatto che l’applicazione di una filigrana sul testo generato da ChatGPT potrebbe ridurre gli introiti in quanto il chatbot verrebbe utilizzato da sempre meno persone. Quasi il 30% degli intervistati infatti ha affermato che utilizzerebbe di meno il software qualora fosse integrata una filigrana nei testi.
Il Journal riporta anche che l’azienda, attraverso alcuni studi interni, avrebbe scoperto che la filigrana non influenzerebbe la qualità del testo generato dal suo chatbot. In un sondaggio commissionato, infatti, “le persone in tutto il mondo hanno sostenuto l’idea di uno strumento di rilevamento dell’IA con un margine di quattro a uno”, si legge nell’articolo.
OpenAI ha confermato il tutto con un aggiornamento ad un vecchio post pubblicato sul proprio blog ufficiale dove si dice anche preoccupata per la stigmatizzazione dell’utilità degli strumenti d’IA per i non madrelingua.
Cosa ne pensate di questa posizione? Fatecelo sapere tramite i commenti.