Voorbeelden van het gebruik van Deepfakes in het Nederlands en hun vertalingen in het Spaans
{-}
-
Colloquial
-
Official
-
Medicine
-
Financial
-
Ecclesiastic
-
Ecclesiastic
-
Official/political
-
Computer
-
Programming
China maakt deepfakes bijna illegaal.
Deepfakes zijn vernoemd naar een gelijknamige Reddit-gebruiker.
De wet kan de uitdaging van deepfakes nog niet aan.
Danielle Citron: Hoe deepfakes de waarheid ondermijnen en de democratie bedreigen.
In dit artikel licht ik dat uitgebreid toe(inclusief een uitleg over deepfakes).
TheFakening ging in deepfakes als een manier om te leren over machine learning.
Adobe, Twitter en mainstream media gaan deepfakes bestrijden?».
Deepfakes lijken authentiek en realistisch, maar zijn het niet: ze zijn helemaal onwaar.
In Dalian is duidelijk dat men zich van het gevaar van deepfakes bewust begint te worden.
Deepfakes kunnen worden gebruikt als krachtige wapens van verkeerde informatie of misbruik.
NOS en RTL volle aandacht voor deepfakes ter maskering van eigen deepfake producties».
Deepfakes, samen met bewerken en context, kunnen meer impact hebben dan alleen een simpele face-swap.”.
Kijkt u zelf maar even en lees daarna dit artikelnog eens goed om te begrijpen hoe deepfakes worden gemaakt en gebruikt.
Cage is natuurlijk geen onbekende voor deepfakes- zoals zelfs de meest vluchtige YouTube-zoekopdrachten zullen bevestigen.
In alle gevallen kan in een PsyOp gewerkt worden met gecompromitteerde personen en/ofer kan gewerkt worden met deepfakes.
Mijn persoonlijke favoriet[deepfake] is ook een van de meest populaire deepfakes die ik heb gemaakt,'vertelde Deep Homage aan Digital Trends.
De afgelopen dagen bleken zowel RTL alsde NOS vol aandacht te besteden aan het fenomeen deepfakes.
Deepfakes, de door A. I. ondersteunde face-swapping-technologie die de toekomst van de waarheid bedreigt zoals wij die kennen, is overal.
De combinatie van onze meest fundamentele menselijke zwakheden met netwerktools kan deepfakes veranderen in wapens.
Deepfakes kunnen dat benutten en het diepe wantrouwen vergroten dat we al hebben in politici, bedrijfsleiders en andere invloedrijke leiders.
Begin augustus vroeg het House Intelligence Committee aan Facebook,Google en Twitter wat zij tegen het gevaar van deepfakes gaan doen.
Echter,[sinds] de technologie die wordt gebruikt voor de deepfakes kan ook worden gebruikt voor veel betere doeleinden- is het juist om de technologie te straffen?
Om kiezers te beschermen tegen verkeerde informatie,is Californië bijvoorbeeld begonnen te kijken naar het verbieden van deepfakes ten minste 60 dagen voor de verkiezingen.
Maar het is bijna zeker deepfakes verschijnen tijdens het campagneseizoen, bewerend om kandidaten af te schilderen dingen zeggen of naar plaatsen gaan waar de echte kandidaat dat niet zou doen.
In een onheilspellendelezing onthult professor professor Danielle Citron hoe deepfakes ons wantrouwen vergroten-- en suggereert benaderingen om de waarheid te beschermen.
Tot nu toe zijn deepfakes beperkt ingezet door mensen die de gezichten van beroemdheden op de lichamen van pornosterren zetten of om politici gekke dingen te laten zeggen.
Terwijl moderne kunstmatige intelligentie hoogst dwingende namaakgoederen kan produceren-vaak genoemd deepfakes- dit is voornamelijk beperkt tot het veranderen van het gezicht en de stem in een video, niet het hele lichaam.
In mijn nieuwe boek beschrijf ik hoe deepfakes op verschillende terreinen in de media, maar ook op social media en discussieplatforms toegepast kunnen worden en licht ik toe hoe de media al decennia over alle technieken beschikken om nieuws in scene te zetten.
Het kan allemaal waar zijn,maar nu we weten van het bestaan van deepfakes en we weten dat ook social media bewaakt wordt door professionele reaguurders, weten we niets meer zeker.
Met aan artificial intelligence gerelateerde ontwikkelingen zoals deepfakes- zeer realistische, maar gemanipuleerde video's- wordt het waarschijnlijk nog moeilijker om misinformatie te herkennen.