Le migliori criptovalute

    Nuova regola di Meta: Minaccia di sanzioni per gli utenti di immagini AI

    Meta ha in programma l'implementazione di nuove norme relative ai contenuti generati dall'intelligenza artificiale sulle sue piattaforme come Facebook, Instagram e thread, come dichiarato in un post sul blog dell'azienda il 6 gennaio. Queste misure mirano ad affrontare le crescenti preoccupazioni relative all'autenticità e alla trasparenza dei contenuti digitali.

    Secondo l'annuncio, tutti i contenuti riconosciuti come generati dall'intelligenza artificiale, sia attraverso i metadati che attraverso un watermarking intenzionale, saranno etichettati in modo visibile. Inoltre, gli utenti avranno la possibilità di segnalare i contenuti non etichettati che si sospetta siano generati dall'intelligenza artificiale, consentendo alla comunità di contribuire agli sforzi di moderazione dei contenuti.

    Questa iniziativa riflette l'evoluzione dell'approccio di Meta alla moderazione dei contenuti, che ricorda le sue pratiche precedenti alla comparsa dei contenuti generati dall'intelligenza artificiale. Consentendo agli utenti di segnalare le violazioni e garantendo la trasparenza nell'etichettatura dei contenuti, Meta mira a mantenere l'integrità delle sue piattaforme.

    In vista del 2024, Meta sta sfruttando la sua vasta base di utenti per migliorare le capacità di moderazione dei contenuti. Consentendo agli utenti di segnalare i contenuti generati dall'intelligenza artificiale, Meta sfrutta la potenza del crowdsourcing per affrontare le sfide emergenti dell'autenticità dei contenuti digitali.

    Secondo il post sul blog:

    “Chiederemo alle persone di utilizzare questo strumento di divulgazione ed etichettatura quando pubblicano contenuti organici con un video fotorealistico o un audio dal suono realistico che è stato creato o alterato digitalmente, e potremmo applicare delle sanzioni se non lo fanno”.

    Migliorare il rilevamento dei contenuti generati dall'IA

    I creatori che utilizzano le piattaforme di Meta dovranno etichettare i loro contenuti come generati dall'IA per evitare potenziali ripercussioni. Pur implementando il watermarking e l'etichettatura per i contenuti generati con i suoi strumenti, Meta riconosce i limiti nel rilevare i contenuti audio e video generati dall'IA su scala.

    Per affrontare questo problema, Meta collabora con partner del settore come Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock. Insieme, cercano di sviluppare metodi per rilevare watermark invisibili e migliorare la verifica dell'autenticità dei contenuti.

    Tuttavia, Meta riconosce le attuali limitazioni nel rilevare su scala i contenuti audio e video generati dall'intelligenza artificiale, compresa la tecnologia deepfake. Questo sottolinea gli sforzi continui necessari per affrontare il panorama in evoluzione dell'autenticità e dell'integrità dei contenuti digitali.

    Incontra Rahul Nambiampurath da Kerala, India, uno scrittore freelance esperto specializzato in criptovalute. Rahul ha studiato finanza alla Sikkim Manipal University. È un esperto di criptovalute, tecnologia blockchain, NFT e Web3, la nuova era di Internet. Rahul ha iniziato a esplorare le criptovalute nel 2014. Ha oltre cinque anni di esperi ..