Du hast noch kein Thema im Forum kommentiert.
 
Hier kommen die 3 letzten Forenthemen, 
die du kommentiert hast.
+ Neuer Shout
SocialMedia
Es läuft ein neuer Fotowetti,,schaut mal auf insta ;)
0 | 0 | 0 | 0
0%
Um einen Kommentar in den Tagesnews hinterlassen zu können, musst du angemeldet sein.Noch kein Mitglied?
Klicke hier, um deinen eigenen kostenlosen Account zu erstellen oder Virtual Popstar auf Facebook zu spielen:




> Schließen
Helper
15 von 24 Sternen erreicht
Tagesnews
Deepfakes - Digitale Täuschung: die dunkle Seite der KI (durch Anonym)


Deepfakes sind mit Hilfe von künstlicher Intelligenz (KI) erzeugte Medieninhalte - meist Videos, Bilder oder Audio -, die so realistisch gefälscht sind, dass sie auf den ersten Blick nicht von echten Aufnahmen zu unterscheiden sind. Das Wort setzt sich aus „Deep Learning“ (eine Methode des maschinellen Lernens) und „Fake“ (Fälschung) zusammen.

Ein bekanntes Beispiel:
Ein Video zeigt eine berühmte Person, die scheinbar etwas sagt oder tut - obwohl sie das in Wirklichkeit nie getan hat. Möglich wird das durch Algorithmen, die riesige Mengen an Bild- und Tonmaterial analysieren und daraus ein täuschend echtes neues Video erstellen.




Wozu werden Deepfakes verwendet?

Kreative oder technische Anwendungen
In Film und Fernsehen zur digitalen Verjüngung oder Nachstellung verstorbener Schauspieler:innen.

Für Synchronisation
Lippenbewegungen an andere Sprachen anpassen.

In der Forschung
Um KI-Modelle zu trainieren oder historische Szenen zu rekonstruieren.

Als Satire oder Parodie - z. B. in Social-Media-Memes

Missbräuchliche und gefährliche Nutzung

Falsche Zitate und Propaganda
Politiker:innen werden Aussagen untergeschoben.

P*rnografische Deepfakes
Gesichter meist weiblicher Opfer werden in pornografische Inhalte montiert - meistens ohne deren Wissen.

Betrug
CEO-Scams, bei denen z. B. die Stimme des Chefs nachgeahmt wird, um Geld zu ergaunern.

Rufmord & Manipulation
Private Personen werden durch Fake-Videos öffentlich blossgestellt.

Welche Gefahren lauern?

Verlust von Vertrauen
Wenn wir nicht mehr erkennen können, was echt ist, verlieren wir das Vertrauen in Videos, Nachrichten, Medien - und damit auch in unsere Gesellschaft.

Digitale Gewalt
Vor allem Frauen sind betroffen: Intime Deepfakes sind eine moderne Form von sexueller Gewalt und können extrem traumatisierend sein.

Manipulation der Öffentlichkeit
Deepfakes können gezielt genutzt werden, um Wahlen zu beeinflussen, Verschwörungstheorien zu stützen oder Hass zu schüren.

Identitätsdiebstahl und Betrug
Deepfakes können dazu genutzt werden, Identitäten zu fälschen, Passwörter zu erschleichen oder Geldflüsse zu manipulieren.

Wie kann man sich schützen?

Digitale Vorsicht
Teile nicht leichtfertig persönliche Bilder oder Videos im Netz. Nutze auf Social Media Privatsphäre-Einstellungen gezielt. Sei kritisch bei Inhalten, die dir „zu perfekt“ oder untypisch vorkommen.

Technische Tools
Es gibt erste Apps zur Erkennung von Deepfakes (z. B. Deepware, Sensity). Immer mehr Plattformen (z. B. Meta, TikTok) arbeiten an automatischer Kennzeichnung.

Rechtlicher Schutz
Wenn du betroffen bist: Beweise sichern (Screenshots, Links). Teilweise kannst du Anzeige erstatten wegen z. B. Persönlichkeitsverletzung, Ehrverletzung oder sexueller Belästigung. Plattformen zur Löschung auffordern - viele reagieren auf Beschwerden.

Aufklärung & Zivilcourage
Sprich über Deepfakes - je mehr Menschen sie kennen, desto schwieriger wird es, sie glaubwürdig einzusetzen. Unterstütze Betroffene, anstatt zu lachen oder zu teilen.

Fazit
Deepfakes sind faszinierend - und zugleich beängstigend. Die Technologie an sich ist nicht per se böse, doch ihr Missbrauch kann echten Schaden anrichten. Es liegt an uns allen, wachsam zu bleiben, aufzuklären und verantwortungsvoll mit digitalen Medien umzugehen.

PS: Hier geht's zum offiziellen Diskussionsthread!



























*Der Text wurde mithilfe von ChatGPT verfasst




Kommentieren

Kommentar zum Artikel Deepfakes - Digitale Täuschung: die dunkle Seite der KI .
Kommentieren
Melden | Zitieren | X
Anonym Schrieb auf 29-08 01:53:
Lele Schrieb:
Nymphe Schrieb:
Es ist einfach gruselig viele nutzen die ki Videos aus um Videos von Leuten zu erstellen und so eventuell damit zu erpressen , auch gutes Beispiel sind die Kaninchen auf dem Trampolin, täuschend echt
Sehe auch immer wieder Videos wo jemand zwei gleiche Produkre zeigt und fragt "welches ist AI?" Find das echt faszinierend 😭 oft erkennt man das aber zB weil die Schatten fehlen (zB bei nem Baum) aber glaube wenn ich mich nicht bewusst drauf achte würde mir das 0 aufallen :// 
Bin echt vorsichtiger geworden, hab zB mein Instagram Profil privat gemacht
Melden | Zitieren | X
Nymphe Schrieb auf 29-08 00:00:
Nymphe Schrieb:
Es ist einfach gruselig viele nutzen die ki Videos aus um Videos von Leuten zu erstellen und so eventuell damit zu erpressen , auch gutes Beispiel sind die Kaninchen auf dem Trampolin, täuschend echt
Melden | Zitieren | X
Pizzagott Schrieb auf 25-08 00:00:
Pizzagott Schrieb:
Ich bin ja so schon aus zahlreichen Gründen kein Fan von dem ganzen KI-, GPT- etc. Hype. Aber Deepfakes können ja wie hier beschrieben deutlich schlimmer sein als "nur" Leute die irgendwas lustige oder dummes machen wollen. In Zeiten von Fake News ist es ja ohnehin schon schwer genug zu erkennen was noch echt ist. Inzwischen kann man sich aber noch nicht mal mehr sicher sein, dass Videos oder Bilder irgendwelche Beweise von irgendwas sind 🤔
Also vielen Dank für den Beitrag, es ist verdammt wichtig heutzutage genug Medienkompetenz zu besitzen und allgemein Aufmerksamkeit für das ganze Thema zu schaffen!
Melden | Zitieren | X
BlackLotus Schrieb auf 17-08 01:19:
BlackLotus Schrieb:
KI kommt ja immer mehr unser Leben. Ich bin mir da leider immer noch nicht sicher, ob ich das gut oder schlechte finde. Meine es gibt Situationen, wo es es echt hilfreich ist und in anderen ist es schon krass, was alles so möglich ist. Bei mir im Büro ist das auch Thema. Privat nutze ich es tatsächlich überhaupt nicht. 
Melden | Zitieren | X
Anonym Schrieb auf 06-07 00:23:
Yorukumo Schrieb:
{option}
Melden | Zitieren | X
Anonym Schrieb auf 18-06 17:40:
Lele Schrieb:
Hab grade gemerkt das der Thread im Beitrag nicht verlinkt ist, sorry sad Hab's versucht zu fixen, leider scheint es nen Bug zu geben den ich nicht fixen kann 
Melden | Zitieren | X
Anonym Schrieb auf 17-06 13:11:
Lele Schrieb:
Nicht vergessen: wenn ihr fleissig Kommentiert und an der Diskussionsrunde teilnehmt, erhöht das eure Chance auf einen Gewinn. 🫶🏻💜
Melden | Zitieren | X
Anonym Schrieb auf 16-06 22:05:
Lele Schrieb:
Mojito Schrieb:
Ich dachte irgendwie ich hab noch nie davon gehört, aber habs glaube doch schon, nur nicht unter dem Namen einfach. 
War auch irgendwie klar, dass es so fortschrittliche Technologie gibt und die dann erst mal dafür missbraucht wird Pornovideos von Leuten zu erstellen, die davon nichts wissen.............
Das ist so heftig ey 😭😩 Weil das Umfeld denkt dann halt, du wärst das... Und du bist so dort ''Ähm ne bin ich nicht'' und die so ''klar....'' rip sad  Oder was, wenn jemand echt nen scheiss macht und die Person sagt einfach ''ne bin ich nicht das ist Deepfake!!!11" uff
Melden | Zitieren | X
Anonym Schrieb auf 16-06 22:03:
Mojito Schrieb:
Ich dachte irgendwie ich hab noch nie davon gehört, aber habs glaube doch schon, nur nicht unter dem Namen einfach. 
War auch irgendwie klar, dass es so fortschrittliche Technologie gibt und die dann erst mal dafür missbraucht wird Pornovideos von Leuten zu erstellen, die davon nichts wissen.............
Melden | Zitieren | X
Anonym Schrieb auf 16-06 21:57:
Yorukumo Schrieb:
Ich find btw die Kennzeichnungen der Apps nicht gut, ich übersehe das bei Instagram so häufig, und ner Freundin ist das nicht mal aufgefallen bei Facebook und Instagram das es eine Kennzeichnung gibt :I

Guter Beitrag! 
Melden | Zitieren | X
Anonym Schrieb auf 16-06 21:46:
Lele Schrieb:
Nugget Schrieb:
Das Layout ist voll mein Geschmack*-* 
Tatsächlich benutze ich KI bzw. Deep Learning-Techniken in der Medizin und beim Lernen für die Uni, also genieße das schon mit Vorsicht. Es wird oft für so ein Blödsinn Missbraucht.
Freut mich, dass dir mein Layout gefällt :)
Melden | Zitieren | X
Anonym Schrieb auf 16-06 21:38:
Risa Schrieb:
Ich find das total gefährlich, man kann iwann sagen bei Videomaterial bei straftaten "das ist KI" und man weiß iwann nicht mehr was ist echt und was nicht...
Melden | Zitieren | X
Anonym Schrieb auf 16-06 21:36:
Nugget Schrieb:
Das Layout ist voll mein Geschmack*-* 
Tatsächlich benutze ich KI bzw. Deep Learning-Techniken in der Medizin und beim Lernen für die Uni, also genieße das schon mit Vorsicht. Es wird oft für so ein Blödsinn Missbraucht.
Melden | Zitieren | X
Anonym Schrieb auf 16-06 21:28:
Lele Schrieb:
Viel Spass beim lesen!
PS: HIER geht's zum Diskussionsthread!



News Archiv
Guestwriter: Entführt von Heinrich Stile14-09-2025 08:00
3 Anime Empfehlungen07-09-2025 16:11
Die besten Kommentatoren30-08-2025 10:00
Netflix Film: Kpop Demon Hunters16-08-2025 23:29
Mobberin verurteilt! - Gossip Hunter10-08-2025 08:00
Nichtakademiker-Kinder27-07-2025 15:00
Die Welt der deutschen Synchronsprecher16-07-2025 10:56
Deepfakes - Digitale Täuschung: die dunkle Seite der KI 16-06-2025 21:27
Interview einer Bahnfahrt08-06-2025 09:26
Der Fall der Menendez Brüder18-05-2025 12:56
Rezension: Sirens04-05-2025 16:00
Die besten Kommentatoren29-04-2025 07:46
Serien-Empfehlung: Cassandra09-03-2025 13:14
Moderatoren Wahl 202503-03-2025 14:59
Guestwriter: Coral Island22-02-2025 23:03
Wer ist eigentlich.... #209-02-2025 11:58
Stark sein gegen rechts25-01-2025 11:00
Jack the Ripper: Das Mysterium eines Serienmörders11-01-2025 11:45
Empfehlung: Infernas22-12-2024 12:41
Der Nikolaus08-12-2024 14:39
Gleichberechtigung in Deutschland24-11-2024 18:51
Aberglaube10-11-2024 00:00
Halloween Click Spiel31-10-2024 00:00
Mein Leben als Menschenfresserin27-10-2024 10:19
McKamey Manor - Das schrecklichste Horrorhaus13-10-2024 13:30
Seite: | Folgende