Mentre Reddit si diverte a scherzare sulle notizie generate dall’intelligenza artificiale, una svolta significativa si sta verificando nel mondo dei contenuti creati da questa tecnologia. Sette importanti aziende del settore, tra cui OpenAI, Google, Microsoft, Meta, Amazon, Anthropic e Inflection, hanno promesso all’amministrazione Biden di adottare misure concrete per rendere più sicuri i sistemi di intelligenza artificiale.
Watermark per Combattere Contenuti Generati da IA
Secondo quanto riportato da Ars Technica e Reuters, queste aziende hanno deciso di introdurre dei watermark per rendere i contenuti generati dall’IA “riconoscibili”. Questo approccio mira a contrastare i deepfake e la disinformazione, cercando di porre fine alla proliferazione di contenuti generati da IA senza possibilità di individuarne l’origine.
L’obiettivo di questa iniziativa congiunta è quello di creare un “sistema condiviso” tra le sette società, che possa fare chiarezza sulla provenienza dei contenuti creati tramite intelligenza artificiale. Questi watermark saranno applicati a testi, video, audio e immagini generati da IA, consentendo una maggiore trasparenza e responsabilità nella divulgazione e fruizione di tali contenuti.
Sebbene i dettagli completi siano ancora da definire, la dichiarazione delle aziende del 21 luglio 2023 rappresenta un significativo impegno nella lotta contro la manipolazione e la disinformazione mediatica attraverso l’uso di intelligenza artificiale.
Le singole aziende hanno condiviso alcune informazioni sulle proprie iniziative. Ad esempio, Google ha fatto riferimento all’uso di metadati per aiutare a identificare la provenienza dei contenuti, mentre Microsoft ha espresso la volontà di introdurre filigrane per testi, video e immagini creati dall’IA.
Il blog ufficiale di OpenAI offre ulteriori dettagli sulla questione, dimostrando l’impegno della comunità dell’IA nel risolvere le sfide relative alla manipolazione dei contenuti generati dalla tecnologia.
Complessivamente, questa iniziativa rappresenta un passo importante nel settore, con le principali aziende che collaborano per garantire un utilizzo etico e responsabile dell’intelligenza artificiale. Un’azione congiunta di questo genere può contribuire a proteggere il pubblico dai contenuti ingannevoli e rafforzare la fiducia nell’utilizzo dell’IA per il bene comune.