[go: up one dir, main page]
More Web Proxy on the site http://driver.im/ Skip to main content
Log in

Deepfakes, Dall-E & Co.

Wie KIs das Vertrauen in Multimedia-Daten auf die Probe stellen

  • Schwerpunkt
  • Published:
Datenschutz und Datensicherheit - DuD Aims and scope Submit manuscript

Zusammenfassung

Dieser Artikel liefert einen Überblick über die technischen Ausprägungen von ,,Deepfakes‘‘ und über verwandte KI-gestützte Methoden, mit denen automatisiert manipulierte Multimediadaten erstellt werden können. Wir diskutieren die Bedrohungen, die diese Verfahren mit sich bringen, und stellen Methoden und Strategien vor, die gegen Deepfakes eingesetzt werden können.

This is a preview of subscription content, log in via an institution to check access.

Access this article

Subscribe and save

Springer+ Basic
£29.99 /Month
  • Get 10 units per month
  • Download Article/Chapter or eBook
  • 1 Unit = 1 Article or 1 Chapter
  • Cancel anytime
Subscribe now

Buy Now

Price includes VAT (United Kingdom)

Instant access to the full article PDF.

Explore related subjects

Discover the latest articles, news and stories from top researchers in related subjects.

Literatur

  1. Westerlund, M.: The emergence of deepfake technology: A review. Technology Innovation Management Review 9(11) (2019)

  2. Tolosana R, Vera-Rodriguez R et al (2020) Deepfakes and beyond: A Survey of face manipulation and fake detection. Inf Fusion 2020(64):131–148

    Article  Google Scholar 

  3. Nguyen, T.T., Nguyen, Q.V.H. et al., Deep Learning for Deepfakes Creation and Detection: A Survey, Computer Vision and Image Understanding, Volume 223/2022, ISSN 1077-3142 (2022)

  4. Abu-Ein AA, Al-Hazaimeh OM et al (2022) Analysis of the current state of deepfake techniques-creation and detection methods. Indonesian J Electr Eng Comput Sci 28(3):1659–1667

    Article  Google Scholar 

  5. Reuters: Fact check: “Drunk” Nancy Pelosi video is manipulated, https://www.reuters.com/article/uk-factcheck-nancypelosi-manipulated-idUSKCN24Z2BI (08/2020)

  6. Winkler, P.: „Nancy Pelosi Video manipuliert“, Neue Züricher Zeitung (NZZ) vom 25.05.2019, https://www.nzz.ch/international/deep-fakes-nancy-pelosi-video-manipuliert-ld.1484614 (2019)

  7. Bulat, A., Tzimiropoulos, G.: How far are we from solving the 2D & 3D Face Alignment problem? (and a dataset of 230,000 3D facial landmarks), International Conference on Computer Vision (2017)

  8. Perov, I., Gao, D. et al.: Deepfacelab: A simple, flexible and extensible face swapping framework. arXiv preprint arXiv:2005.05535 (2020)

  9. deepfakes/faceswap (GitHub-Benutzer): „Faceswap: Deepfakes Software For All“. Repository: https://github.com/deepfakes/faceswap (2020)

  10. Wombo: WOMBO is the world’s best AI-powered lip sync apphttps://www.wombo.ai/ (letzter Aufruf 01/2023)

  11. Thies, J., Zollhofer, M. et al.: Face2Face: Realtime Face Capture and Reenactment of RGB Videos. In: Proceedings of the IEEE conference on computer vision and pattern recognition. pp. 2387–2395 (2016)

  12. Siarohin, A., Lathuilière, S. et al.: First Order Motion Model for Image Animation. In: Conference on Neural Information Processing Systems (NeurIPS) (12/2019)

  13. Goodfellow, I., Pouget-Abadie, J. et al.: Generative Adversarial Nets. In: Advances in Neural Information Processing Systems, Volume 27 (2014)

  14. Karras, T., Aittala, M. et al.: Alias-Free Generative Adversarial Networks (2021)

  15. Lin, J., Zhang, R. et al.: Anycost GANs for Interactive Image Synthesis and Editing (2021)

  16. Adobe: Überblick über Neural Filters – Mit Neural Filters Kreativität entdecken https://helpx.adobe.com/de/photoshop/using/neural-filters.html#about-neural-ftilters (letzter Aufruf 01/2023)

  17. Sohl-Dickstein, J., Weiss, E.A. et al.: Deep unsupervised learning using nonequilibrium thermodynamics (2015)

  18. OpenAI: DALL-E 2 – DALL-E 2 is a new AI system that can create realistic images and art from a description in natural language https://openai.com/dall-e-2/ (letzter Aufruf 01/2023)

  19. Rombach, R., Blattmann, A. et al.: High-Resolution Image Synthesis with Latent Diffusion Models (2021)

  20. Kalchbrenner, N., Elsen, E. et al.: Efficient Neural Audio Synthesis (2018)

  21. Qian, K.: Deep generative models for speech editing. Ph.D. thesis, University of Illinoisat Urbana-Champaign (2020)

  22. Jia, Y., Zhang, Y. et al.: Transfer Learning from Speaker Verification to Multispeaker Text-To-Speech Synthesis (2018)

  23. Thies J, Elgharib M et al (2020) Neural voice puppetry: Audio-driven facial reenactment. European Conference on Computer Vision. Springer, S 716–731

  24. Prajwal, K.R., Mukhopadhyay, R. et al.: A lip sync expert is all you need for speech to lip generation in the wild. In: Proceedings of the 28th ACM International Conference on Multimedia. p. 484–492. MM ’20, ACM, New York, NY, USA (2020)

  25. Zhang, S., Yuan, J. et al.: Text2video: Text-driven talking-head video synthesis with phonetic dictionary. arXiv preprint arXiv:2104.14631 (2021)

  26. Farid, H., Schindler, H.J.: Die Gefahr von Deepfakes für unsere Demokratie. Konrad-Adenauer-Stiftung (06/2020)

  27. Muna, M.: Technological arming: Is deepfake the next digital weapon? Technical Report, University of California, Berkeley, USA (05/2020)

  28. Vaccari, C., Chadwick, A.: Deepfakes and disinformation: Exploring the impact of synthetic political video on deception, uncertainty, and trust in news. Social Media+ Society 6(1) (02/2020)

  29. Bundesamt für Sicherheit in der Informationstechnik (BSI): Deepfakes – Gefahren und Gegenmaßnahmen https://www.bsi.bund.de/DE/Themen/Unternehmen-und-Organisationen/Informationen-und-Empfehlungen/Kuenstliche-Intelligenz/Deepfakes/deepfakes_node.html (letzter Aufruf 01/2023)

  30. Ruck, J., Mayer, C.: Recherche-Projekt: Beispiele zeigen, welche Gefahr von perfekt gefälschten Politiker-Videos ausgehen kann, Business Insider vom 28.05.2021, https://www.businessinsider.de/politik/deutschland/journalisten-projekt-recherchiert-vor-bundestagswahl-diese-gefahr-kann-von-gefaelschten-videos-ausgehen-a/ (letzter Aufruf 01/2023)

  31. Cook, E.: Deep fakes could have real consequences for Southeast Asia, Lowy Institute via The Interpreter vom 23.08.2019, https://www.lowyinstitute.org/the-interpreter/deep-fakes-could-have-real-consequences-southeast-asia (letzter Aufruf 01/2023)

  32. Klößer, S.: GEFAHR DURCH DEEPFAKES – Achtung, diese manipulierten Videos von Putin und Selenskyj sind Kriegspropaganda, Stern vom 29.06.2022, https://www.stern.de/politik/ausland/achtung--diese-manipulierten-videos-von-putin-und-selenskyj-sind-fake-31742680.html (letzter Aufruf 01/2023)

  33. Damiani, J.: A Voice Deepfake Was Used To Scam A CEO Out Of $243,000, Forbes vom 03.09.2019, https://www.forbes.com/sites/jessedamiani/2019/09/03/a-voice-deepfake-was-used-to-scam-a-ceo-out-of-243000/ (letzter Aufruf 01/2023)

  34. Vincent, J.: New AI deepfake app creates nude images of women in seconds, The Verge vom 27.06.2019, https://www.theverge.com/2019/6/27/18760896/deepfake-nude-ai-app-women-deepnude-non-consensual-pornography (letzter Aufruf 01/2023)

  35. Simonite, T.: Most Deepfakes Are Porn, and They’re Multiplying Fast, Wired vom 07.10.2019, https://www.wired.com/story/most-deepfakes-porn-multiplying-fast/ (letzter Aufruf 01/2023)

  36. Li, Y., Chang, M.-C. et al.: In Ictu Oculi: Exposing AI Generated Fake Face Videos by Detecting Eye Blinking (2018)

  37. Ciftci UA, Demir I et al (2019) FakeCatcher: Detection of Synthetic Portrait Videos using Biological Signals https://doi.org/10.1109/TPAMI.2020.3009287

    Book  Google Scholar 

  38. Agarwal, S., El-Gaaly T., Farid, H. et al.: Detecting Deep-Fake Videos from Appearance and Behavior, In: IEEE Workshop on Image Forensics and Security (2020)

  39. Frick, R.A., Zmudzinski, S., Steinebach, M.: Detecting “DeepFakes” in H.264 Video Data Using Compression Ghost Artifacts. In: Annual Symposium on Electronic Imaging, Science and Techn8ology, pp.116/1-116/6 (2020)

  40. Steinebach, M., Blümer, S., Bunzel, N., Frick, R.A.: Deepfake detection assisted by background matching, Electronic Imaging Symposium 2023 (erscheint 02/2023).

  41. Steinebach M, Jörg S et al (2020) Checking the integrity of images with signed thumbnail images. Electron Imaging Symp 2020(4):118–111

    Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Raphael Antonius Frick.

Rights and permissions

Reprints and permissions

About this article

Check for updates. Verify currency and authenticity via CrossMark

Cite this article

Frick, R., Steinebach, M. & Zmudzinski, S. Deepfakes, Dall-E & Co.. Datenschutz Datensich 47, 203–208 (2023). https://doi.org/10.1007/s11623-023-1746-4

Download citation

  • Published:

  • Issue Date:

  • DOI: https://doi.org/10.1007/s11623-023-1746-4

Navigation