come capire un immagine social generata dall ia meta lavora soluzione v4 698384

Il riconoscimento delle immagini realizzate con l’IA e la loro distinzione da quelle umane sono due grossi problemi per il mondo dell’Intelligenza Artificiale. I tentativi in tal senso sono stati molteplici, spesso fallimentari. Ora, però, Meta sembra avere la soluzione, e potrebbe presto implementarla su Facebook e Instagram.

Nello specifico, Meta sta pensando ad un’etichetta capace di distinguere le immagini generate dall’IA da quelle scattate o realizzate da una persona in carne ed ossa. Questa etichetta dovrebbe iniziare a fare il suo debutto su Facebook, Instagram e Threads nelle prossime settimane, puntando a risolvere il problema dei contenuti prodotti dall’IA su questi social network. Un intervento provvidenziale, se pensiamo al gran numero di influencer “umani” realizzati con l’IA che stanno spopolando specialmente su Instagram.

Secondo il direttore della sezione Global Affairs di Meta, Nick Clegg, l’azienda ha collaborato con diversi partner dell’industria per sviluppare degli standard per il riconoscimento delle immagini realizzate dall’IA, che possono anche essere estesi ai video o alle clip audio. Questo standard si baserebbe su alcuni “segnali” contenuti nei metadati di ciascuna immagine, video o campione audio prodotti dall’IA.

In ogni caso, bisogna considerare che questo standard di Meta non è ancora pronto: Clegg, infatti, ha spiegato che “al momento stiamo lavorando sulla nostra capacità [di distinguere i contenuti umani da quelli dell’IA], e nei prossimi mesi inizieremo ad applicare delle etichette in ciascun linguaggio supportato dalle nostre app”. Intanto, Meta ha spiegato di voler capire meglio “come le persone creano e condividono contenuti con l’IA, ma anche che tipo di trasparenza viene considerato più importante dagli utenti, nonché come queste tecnologie si evolvono nel tempo”.

I “segnali” che il tool di Meta potrà individuare, comunque, saranno invisibili ad occhio nudo, perciò il lavoro svolto dal software riguarderà essenzialmente i metadati di ciascun contenuto e non potrà essere replicato da utenti umani. La soluzione, insomma, sembra essere molto simile al watermark IA “invisibile” di Google, lanciato nel 2023 e chiamato “SynthID”.



Fonte

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *