
Nenaleťte na deepfakes a dezinformace vytvořené pomocí AI | S2:E23

Poslechněte si podcast
19. 11. 2023
26 min
O epizodě podcastu
Vítejte u 23. dílu KYBcastu, který je určený nejenom učitelům a dalším pracovníkům ve vzdělávání, ale i rodičům. Podvodná videa, fotografie a zvukové nahrávky jsou s námi už dlouho. S umělou inteligencí (AI) přichází nová éra realisticky upravených fotografií, videí a dalších materiálů, u kterých je prakticky nemožné na první pohled zjistit, že se jedná o podvod. Často nám s tím nepomohou ani specializované nástroje. Těmto materiálům se říká deepfakes a do budoucna se s nimi nejspíš budeme setkávat čím dál víc. Dnes se zaměříme na to, co s tím můžeme dělat.
Naše podcasty najdete také na YouTube: Podcasty NPI ČR
---
Co jsou deepfakes
Obecně můžeme za deepfakes označit realisticky upravené fotografie, videa nebo zvukové záznamy, které se tváří jako skutečné, že je téměř nemožné to poznat. Více informací a praktické ukázky najdete v článku Jsou deepfakes nebezpečím nebo nevinnou zábavou?
Příklady deepfakes
Nahé fotky generované AI: ‚Na té fotce mi je 14.‘ Mladé ženy čelí falešným nahým fotografiím, české zákony ale ‚deepfakes‘ neřeší
Deepfakes se nejspíše budou více objevovat i v podvodných reklamách. To je velice nebezpečné, protože lidé často naletí i na daleko jednodušší podvodné reklamy, které mnohdy pouze zneužívají fotografii známé osobnosti. Příklad takového podvodu si můžete přečíst v článku Chtěl vydělat rychle peníze. Zaručil se za to Leoš Mareš. Bohužel to byl podvod .
Deepfake video od Martina Spana .
Zejména rodičům je určené video Zpráva od Elly , které ukazuje ohromné možnosti umělé inteligence.
Další příklady najdete na stránce Fake news v době AI od Jindřicha Zdráhala.
Deepfake od YouTubera: (27) JAK POZNAT DEEPFAKE?! - YouTube
Rozpoznávání deepfakes
Poznat deepfakes je často velice složité nebo nemožné. Na fotografiích lidí se můžete zaměřit na detaily, o kterých mluvíme v podcastu. Zkuste si třeba vygenerovat obličej na thispersondoesnotexist.com , zaměřte se na detaily a sami si ověřte, jestli byste dokázali poznat, že jde o výtvor umělé inteligence. Můžete si také vyzkoušet kvízy na nástěnce Bezpečnost dětí na netu , kde najdete i spoustu dalších užitečných materiálů.
Weby, které mohou pomoci při ověřování informací a odhalování deepfakes
Centrum proti hybridním hrozbám
Manipulátoři.cz
Ověřovna!
Budoucnost a závěr
Bohužel to nyní vypadá, že se při ověřování videí, fotografií nebo třeba zvukových nahrávek nemůžeme příliš spoléhat na nástroje k automatizované detekci podvodných a upravených materiálů. Nástroje umělé inteligence se velice rychle zdokonalují a detekční mechanismy k odhalení materiálů vytvořených nebo upravených pomocí AI jsou spíše pozadu a často označují za podvod i originální a neupravený obsah. S masovým rozšiřováním umělé inteligence tak bohužel ještě roste význam "tradičních" metod ověřování informací, při kterých si můžeme pouze vypomoci různými nástroji typu deepware.ai . Hlavní práce ale zůstává na nás.
Jedno je jisté: při ověřování bychom se měli zdržet rychlých soudů a zbrklého přejímání informací, jak nám ukazuje příklad "zfalšované" složenky, o kterém píše D. Dočekal .
---
Použitá hudba
Skladba Puppy Love (Sting) interpreta Twin Musicom podléhá licenci Creative Commons 4.0 BY (uveďte zdroj).
School Yard interpreta Crowander podléhá licenci Creative Commons BY-NC 4.0 (uveďte zdroj, neužívejte komerčně).