Gigantul american Meta a dezvăluit marţi planurile sale de a identifica și eticheta orice imagine generată de inteligența artificială (AI) publicată pe rețelele sale de socializare în lunile următoare, ca o măsură menită să facă față amenințării crescânde a dezinformării și manipulării media. Informația a fost adusă la cunoștința publicului prin intermediul unei declarații a lui Nick Clegg, responsabil cu afacerile internaționale în cadrul Meta, într-o postare pe blog.
„În următoarele luni, vom eticheta imaginile postate de utilizatori pe platformele noastre – Facebook, Instagram și Threads – atunci când vom identifica indicatori conformi normelor din industrie care sugerează că acestea sunt generate de inteligența artificială”, a declarat Clegg.
Chiar dacă Meta a implementat deja aceste etichete pentru imaginile create cu propriul său instrument Meta AI încă din decembrie, intenționează să extindă această practică la conținutul generat cu instrumente provenite de la alte companii, precum Google, OpenAI, Microsoft, Adobe, Midjourney sau chiar Shutterstock.
Pentru cele mai importante știri, abonează-te la canalul nostru de TELEGRAM
Clegg a recunoscut că etichetarea pe scară largă, inclusiv prin marker-e invizibile, „nu va elimina complet” riscul de producere a imaginilor false („deepfakes”), dar a subliniat că aceasta ar minimiza proliferarea acestora în limitele tehnologiei actuale. În ciuda imperfecțiunilor, Meta consideră că aceasta reprezintă cea mai avansată încercare de a oferi transparență miliarde de utilizatori din întreaga lume în ceea ce privește conținutul AI generat.
Anunțul vine în contextul îngrijorărilor cu privire la utilizarea crescândă a inteligenței artificiale generative în scopuri de dezinformare politică înaintea unor alegeri majore ce urmează să aibă loc în diverse țări în 2024. În ciuda faptului că tehnologia nu este încă perfectă, Meta își propune să ofere un model pentru restul industriei și se angajează să împărtășească tehnologia sa deschis cât mai larg posibil, în încercarea de a dezvolta norme tehnice comune. Asemenea inițiative vin în contextul în care și alte companii, precum OpenAI, au adoptat măsuri pentru a contracara riscurile asociate utilizării lor în scopuri politice.
