Du hast noch kein Thema im Forum kommentiert.
 
Hier kommen die 3 letzten Forenthemen, 
die du kommentiert hast.
+ Neuer Shout
SocialMedia
Es läuft ein neuer Fotowetti,,schaut mal auf insta ;)
0 | 0 | 0 | 0
0%
Um einen Kommentar in den Tagesnews hinterlassen zu können, musst du angemeldet sein.Noch kein Mitglied?
Klicke hier, um deinen eigenen kostenlosen Account zu erstellen oder Virtual Popstar auf Facebook zu spielen:




> Schließen
Helper
15 von 24 Sternen erreicht
Tagesnews
Deepfakes - Digitale Täuschung: die dunkle Seite der KI (durch Anonym)


Deepfakes sind mit Hilfe von künstlicher Intelligenz (KI) erzeugte Medieninhalte - meist Videos, Bilder oder Audio -, die so realistisch gefälscht sind, dass sie auf den ersten Blick nicht von echten Aufnahmen zu unterscheiden sind. Das Wort setzt sich aus „Deep Learning“ (eine Methode des maschinellen Lernens) und „Fake“ (Fälschung) zusammen.

Ein bekanntes Beispiel:
Ein Video zeigt eine berühmte Person, die scheinbar etwas sagt oder tut - obwohl sie das in Wirklichkeit nie getan hat. Möglich wird das durch Algorithmen, die riesige Mengen an Bild- und Tonmaterial analysieren und daraus ein täuschend echtes neues Video erstellen.




Wozu werden Deepfakes verwendet?

Kreative oder technische Anwendungen
In Film und Fernsehen zur digitalen Verjüngung oder Nachstellung verstorbener Schauspieler:innen.

Für Synchronisation
Lippenbewegungen an andere Sprachen anpassen.

In der Forschung
Um KI-Modelle zu trainieren oder historische Szenen zu rekonstruieren.

Als Satire oder Parodie - z. B. in Social-Media-Memes

Missbräuchliche und gefährliche Nutzung

Falsche Zitate und Propaganda
Politiker:innen werden Aussagen untergeschoben.

P*rnografische Deepfakes
Gesichter meist weiblicher Opfer werden in pornografische Inhalte montiert - meistens ohne deren Wissen.

Betrug
CEO-Scams, bei denen z. B. die Stimme des Chefs nachgeahmt wird, um Geld zu ergaunern.

Rufmord & Manipulation
Private Personen werden durch Fake-Videos öffentlich blossgestellt.

Welche Gefahren lauern?

Verlust von Vertrauen
Wenn wir nicht mehr erkennen können, was echt ist, verlieren wir das Vertrauen in Videos, Nachrichten, Medien - und damit auch in unsere Gesellschaft.

Digitale Gewalt
Vor allem Frauen sind betroffen: Intime Deepfakes sind eine moderne Form von sexueller Gewalt und können extrem traumatisierend sein.

Manipulation der Öffentlichkeit
Deepfakes können gezielt genutzt werden, um Wahlen zu beeinflussen, Verschwörungstheorien zu stützen oder Hass zu schüren.

Identitätsdiebstahl und Betrug
Deepfakes können dazu genutzt werden, Identitäten zu fälschen, Passwörter zu erschleichen oder Geldflüsse zu manipulieren.

Wie kann man sich schützen?

Digitale Vorsicht
Teile nicht leichtfertig persönliche Bilder oder Videos im Netz. Nutze auf Social Media Privatsphäre-Einstellungen gezielt. Sei kritisch bei Inhalten, die dir „zu perfekt“ oder untypisch vorkommen.

Technische Tools
Es gibt erste Apps zur Erkennung von Deepfakes (z. B. Deepware, Sensity). Immer mehr Plattformen (z. B. Meta, TikTok) arbeiten an automatischer Kennzeichnung.

Rechtlicher Schutz
Wenn du betroffen bist: Beweise sichern (Screenshots, Links). Teilweise kannst du Anzeige erstatten wegen z. B. Persönlichkeitsverletzung, Ehrverletzung oder sexueller Belästigung. Plattformen zur Löschung auffordern - viele reagieren auf Beschwerden.

Aufklärung & Zivilcourage
Sprich über Deepfakes - je mehr Menschen sie kennen, desto schwieriger wird es, sie glaubwürdig einzusetzen. Unterstütze Betroffene, anstatt zu lachen oder zu teilen.

Fazit
Deepfakes sind faszinierend - und zugleich beängstigend. Die Technologie an sich ist nicht per se böse, doch ihr Missbrauch kann echten Schaden anrichten. Es liegt an uns allen, wachsam zu bleiben, aufzuklären und verantwortungsvoll mit digitalen Medien umzugehen.

PS: Hier geht's zum offiziellen Diskussionsthread!



























*Der Text wurde mithilfe von ChatGPT verfasst




Kommentieren

Kommentar zum Artikel Deepfakes - Digitale Täuschung: die dunkle Seite der KI .
Kommentieren
Melden | Zitieren | X
Anonym Schrieb auf 29-08 01:53:
Lele Schrieb:
Nymphe Schrieb:
Es ist einfach gruselig viele nutzen die ki Videos aus um Videos von Leuten zu erstellen und so eventuell damit zu erpressen , auch gutes Beispiel sind die Kaninchen auf dem Trampolin, täuschend echt
Sehe auch immer wieder Videos wo jemand zwei gleiche Produkre zeigt und fragt "welches ist AI?" Find das echt faszinierend 😭 oft erkennt man das aber zB weil die Schatten fehlen (zB bei nem Baum) aber glaube wenn ich mich nicht bewusst drauf achte würde mir das 0 aufallen :// 
Bin echt vorsichtiger geworden, hab zB mein Instagram Profil privat gemacht
Melden | Zitieren | X
Nymphe Schrieb auf 29-08 00:00:
Nymphe Schrieb:
Es ist einfach gruselig viele nutzen die ki Videos aus um Videos von Leuten zu erstellen und so eventuell damit zu erpressen , auch gutes Beispiel sind die Kaninchen auf dem Trampolin, täuschend echt
Melden | Zitieren | X
Pizzagott Schrieb auf 25-08 00:00:
Pizzagott Schrieb:
Ich bin ja so schon aus zahlreichen Gründen kein Fan von dem ganzen KI-, GPT- etc. Hype. Aber Deepfakes können ja wie hier beschrieben deutlich schlimmer sein als "nur" Leute die irgendwas lustige oder dummes machen wollen. In Zeiten von Fake News ist es ja ohnehin schon schwer genug zu erkennen was noch echt ist. Inzwischen kann man sich aber noch nicht mal mehr sicher sein, dass Videos oder Bilder irgendwelche Beweise von irgendwas sind 🤔
Also vielen Dank für den Beitrag, es ist verdammt wichtig heutzutage genug Medienkompetenz zu besitzen und allgemein Aufmerksamkeit für das ganze Thema zu schaffen!
Melden | Zitieren | X
BlackLotus Schrieb auf 17-08 01:19:
BlackLotus Schrieb:
KI kommt ja immer mehr unser Leben. Ich bin mir da leider immer noch nicht sicher, ob ich das gut oder schlechte finde. Meine es gibt Situationen, wo es es echt hilfreich ist und in anderen ist es schon krass, was alles so möglich ist. Bei mir im Büro ist das auch Thema. Privat nutze ich es tatsächlich überhaupt nicht. 
Melden | Zitieren | X
Anonym Schrieb auf 06-07 00:23:
Yorukumo Schrieb:
{option}
Melden | Zitieren | X
Anonym Schrieb auf 18-06 17:40:
Lele Schrieb:
Hab grade gemerkt das der Thread im Beitrag nicht verlinkt ist, sorry sad Hab's versucht zu fixen, leider scheint es nen Bug zu geben den ich nicht fixen kann 
Melden | Zitieren | X
Anonym Schrieb auf 17-06 13:11:
Lele Schrieb:
Nicht vergessen: wenn ihr fleissig Kommentiert und an der Diskussionsrunde teilnehmt, erhöht das eure Chance auf einen Gewinn. 🫶🏻💜
Melden | Zitieren | X
Anonym Schrieb auf 16-06 22:05:
Lele Schrieb:
Mojito Schrieb:
Ich dachte irgendwie ich hab noch nie davon gehört, aber habs glaube doch schon, nur nicht unter dem Namen einfach. 
War auch irgendwie klar, dass es so fortschrittliche Technologie gibt und die dann erst mal dafür missbraucht wird Pornovideos von Leuten zu erstellen, die davon nichts wissen.............
Das ist so heftig ey 😭😩 Weil das Umfeld denkt dann halt, du wärst das... Und du bist so dort ''Ähm ne bin ich nicht'' und die so ''klar....'' rip sad  Oder was, wenn jemand echt nen scheiss macht und die Person sagt einfach ''ne bin ich nicht das ist Deepfake!!!11" uff
Melden | Zitieren | X
Anonym Schrieb auf 16-06 22:03:
Mojito Schrieb:
Ich dachte irgendwie ich hab noch nie davon gehört, aber habs glaube doch schon, nur nicht unter dem Namen einfach. 
War auch irgendwie klar, dass es so fortschrittliche Technologie gibt und die dann erst mal dafür missbraucht wird Pornovideos von Leuten zu erstellen, die davon nichts wissen.............
Melden | Zitieren | X
Anonym Schrieb auf 16-06 21:57:
Yorukumo Schrieb:
Ich find btw die Kennzeichnungen der Apps nicht gut, ich übersehe das bei Instagram so häufig, und ner Freundin ist das nicht mal aufgefallen bei Facebook und Instagram das es eine Kennzeichnung gibt :I

Guter Beitrag! 
Melden | Zitieren | X
Anonym Schrieb auf 16-06 21:46:
Lele Schrieb:
Nugget Schrieb:
Das Layout ist voll mein Geschmack*-* 
Tatsächlich benutze ich KI bzw. Deep Learning-Techniken in der Medizin und beim Lernen für die Uni, also genieße das schon mit Vorsicht. Es wird oft für so ein Blödsinn Missbraucht.
Freut mich, dass dir mein Layout gefällt :)
Melden | Zitieren | X
Anonym Schrieb auf 16-06 21:38:
Risa Schrieb:
Ich find das total gefährlich, man kann iwann sagen bei Videomaterial bei straftaten "das ist KI" und man weiß iwann nicht mehr was ist echt und was nicht...
Melden | Zitieren | X
Anonym Schrieb auf 16-06 21:36:
Nugget Schrieb:
Das Layout ist voll mein Geschmack*-* 
Tatsächlich benutze ich KI bzw. Deep Learning-Techniken in der Medizin und beim Lernen für die Uni, also genieße das schon mit Vorsicht. Es wird oft für so ein Blödsinn Missbraucht.
Melden | Zitieren | X
Anonym Schrieb auf 16-06 21:28:
Lele Schrieb:
Viel Spass beim lesen!
PS: HIER geht's zum Diskussionsthread!



News Archiv
Reporterwahl 202325-02-2023 08:17
Quallen18-02-2023 23:19
Das unterschätzte Nagetier: Mäuse12-02-2023 10:41
Massentierhaltung Teil 105-02-2023 10:05
Die besten Kommentatoren04-02-2023 22:23
Synästhesie28-01-2023 10:28
Polyneuropathie22-01-2023 16:30
Neurowissenschaften14-01-2023 14:27
Veganuary08-01-2023 15:02
Two - Spirits30-12-2022 18:51
#9 Weihnachtsmagazin19-12-2022 19:19
Germanenideologie II11-12-2022 10:41
Lanzarote03-12-2022 11:12
Häkeln27-11-2022 03:09
Mustafa Kemal Atatürk 20-11-2022 21:33
NT || die besten Kommentatoren12-11-2022 10:38
Mein Leben mit Borderline05-11-2022 12:01
Das kleine Hexenbuch17-10-2022 00:00
Meine Zukunft als Mediengestalterin 14-10-2022 04:14
Germanenideologie Teil 107-10-2022 21:42
Sklaverei im antiken Rom01-10-2022 09:03
Seveso Desaster24-09-2022 20:00
Surrealismus für Anfänger18-09-2022 20:33
Perfektionismus - wenn man nie genug ist11-09-2022 09:43
In Gedenken an Queen Elizabeth II08-09-2022 20:47
Vorherige | Seite: | Folgende