A Microsoft megoldást kínál a deepfake-ek interneten való terjedésének megállítására
Microsoft új online tartalom hitelesítésére szolgáló szabványkészletet vezet be
A Microsoft bejelentette a „technikai szabványok” létrehozását, amelyekkel értékelhető a hálózaton megjelenő anyagok valósága. A cél az, hogy segítse az AI fejlesztőit és a közösségi platformokat abban, hogy meghatározzák, módosítottak-e képek vagy videók digitális eszközökkel (például deepfake-ekkel) és mennyire megbízhatóak azok dokumentálási módszerei.
Hogyan működik a hitelesítési rendszer
* Rembrandt festmény példája
- Részletes eredetjegyzék készül: tárolóhelyek, korábbi tulajdonosok.
- A festményt szkennelik, és az ecsetvonásokból matematikai aláírás generálódik – „digitális ujjlenyomat”.
- Amikor a múzeumban kiállítják, a látogató megnyithatja ezeket az adatokat, hogy meggyőződjön az eredetiségről.
* Módszerek már alkalmazásban
A Microsoft 60 kombinációt vizsgálta létező technikákból (metaadatok eltávolítása, apró módosítások, célzott manipuláció). Minden modellhez szimulálták a viselkedést különböző forgatókönyvekben.
A kutatók megállapították:
- Megbízható kombinációk – széles közönség számára bemutathatók.
- Hiteltelen kombinációk – csak bonyolítják a helyzetet, több zavaró tényezőt teremtve.
Miért fontos ez
* A jogszabályok átláthatóságot követelnek az AI-tól (például „AI Átláthatósági Törvény” Kaliforniában).
* A Microsoft még nem jelentette be, hogy alkalmazza-e ezeket a szabványokat szolgáltatásaira: Copilot, Azure, OpenAI és LinkedIn.
A szabványok nem határozzák meg a tartalom igazságosságát; csak azt mutatják, módosították-e az anyagot, és honnan származik. Ha az iparág elfogadja őket, a megtévesztő tartalom létrehozása jelentősen nehezebbé válik.
Az ipar állapota
Cég Akció Állapot
Microsoft C2PA (2021) – eredetkövetés Fejlesztés alatt
Google Vízjel AI‑generált tartalomra (2023 óta) Aktív bevezetés
De a Microsoft teljes eszköztára csak „projekt” maradhat, ha a piaci szereplők fenyegetést látnak üzleti modelljeikre.
A meglévő megoldások hatékonysága
* Egy kutatás szerint csak 30 % Instagram, LinkedIn, Pinterest, TikTok és YouTube posztot jelölnek helyesen AI‑készítményként.
* Gyors hitelesítő eszközök bevezetése kockázatos: hibák ronthatják a felhasználói bizalmat.
Átfogó ellenőrzési mechanizmusok előnyösebbek. Például, ha egy hiteles képhez kis AI szerkesztés történik, a platform tévesen teljesen generáltként kategorizálhatja. Az integrált megközelítés csökkenti az igazságos eredmények esélyét.
Összegzés
A Microsoft struktúrált szabványkészletet kínál a digitális manipuláció felismerésére. Ezek az eszközök célja, hogy növeljék az online tartalmak átláthatóságát és bizalmát, de sikerük az iparág elfogadásán és az integrált ellenőrzések megbízhatóságán múlik.
Hozzászólások (0)
Oszd meg a véleményed — kérjük, légy udvarias és maradj a témánál.
Jelentkezz be a hozzászóláshoz