Audio-Deepfakes: Experte spricht über Betrugsmaschen – und wie man sich schützen kann

日本 ニュース ニュース

Audio-Deepfakes: Experte spricht über Betrugsmaschen – und wie man sich schützen kann
日本 最新ニュース,日本 見出し
  • 📰 mz_de
  • ⏱ Reading Time:
  • 88 sec. here
  • 3 min. at publisher
  • 📊 Quality Score:
  • News: 39%
  • Publisher: 51%

Große Online-Plattformen wie TikTok, Google oder Facebook sollen ihre Nutzer in Europa künftig informieren, ...

Warnt vor neuen KI-Betrugsmaschen: Brian Valerius, Professor für Künstliche Intelligenz im Strafrecht an der Uni Passau. − Foto: privat

Stimmengeneratoren, die auf Künstlicher Intelligenz basieren, werden immer ausgefeilter. Dr. Brian Valerius, Professor für Künstliche Intelligenz im Strafrecht an der Universität Passau, spricht im Interview über die Risiken dieser Entwicklung – über Betrugsmaschen, wie man sich davor schützen kann und welche juristische Konsequenzen ein „Audio-Deepfake“ hat.

Herr Professor Valerius, Stimmen-KI klingt zunehmend authentisch. Wird diese Technik bereits für kriminelle Zwecke genutzt – etwa für den „Enkeltrick“?Die Betrugsmasche „Enkeltrick“ steht in einer Reihe mit Schockanrufen oder Anrufen falscher Polizisten und ist seit vielen Jahren bekannt. Mithilfe von KI können nun aber die Stimmen von Angehörigen der Opfer realistisch imitiert werden – es handelt sich um sogenannte Audio-Deepfakes.

Gibt es spezielle Merkmale oder Muster, die auf einen KI-Einsatz hindeuten? Wie erkennt man das als Geschädigter?Ein gut gemachter Audio-Deepfake ist über das Telefon schwer zu erkennen. Allerdings können Gesprächslücken und verzögerte Antworten darauf hindeuten, dass es sich um einen Stimmenklon handelt. Denn die Stimme spricht nur, was ihr vorher mitgeteilt wurde. Werden Fragen gestellt, kann die Technologie nicht sofort reagieren.

Angenommen, man hat den Verdacht, dass gerade ein Audio-Deepfake am Apparat ist: Wie soll man sich verhalten?Auflegen und die bekannte Nummer des Kindes oder Enkelkindes anrufen, um zu fragen, ob es tatsächlich ein Problem gibt. Auf zweifelhafte Apps, an denen Nutzer neben ihren Bildern auch nicht selten die uneingeschränkten Nutzungsrechte an ihren Bildern erteilen, sollte verzichtet werden.

このニュースをすぐに読めるように要約しました。ニュースに興味がある場合は、ここで全文を読むことができます。 続きを読む:

mz_de /  🏆 115. in DE

日本 最新ニュース, 日本 見出し

Similar News:他のニュース ソースから収集した、これに似たニュース記事を読むこともできます。

Dortmunder Polizei klärt mit Theater über Betrugsmaschen aufDortmunder Polizei klärt mit Theater über Betrugsmaschen aufIn einer der Spielszenen täuscht der Betrüger am Telefon vor, ein Polizist zu sein.
続きを読む »

Prinz Harry: Trauma-Experte bereut Livestream mit ihmPrinz Harry: Trauma-Experte bereut Livestream mit ihmIm Frühjahr dieses Jahres hatte sich Dr. Gabor Maté mit Prinz Harry über dessen Traumata unterhalten. Doch das Interview hätte aus Sicht des Experten so nie stattfinden dürfen.
続きを読む »

Prinz Harry: Trauma-Gespräch mit Experte hätte so nie stattfinden dürfenPrinz Harry: Trauma-Gespräch mit Experte hätte so nie stattfinden dürfenPrinz Harry und Experte Dr. Gabor Maté sprachen im Frühjahr in einem Livestream über Traumata. Doch aus Sicht des Experten hätte das Interview so nicht stattfinden dürfen.
続きを読む »

Experte Mumm: "Wir glauben an eine Kurserholung bis zum Jahresende"Experte Mumm: "Wir glauben an eine Kurserholung bis zum Jahresende"Donner&Reuschel-Experte Carsten Mumm rechnet trotz des Nahost-Konflikts mit einer Erholung der Börsen bis zum Jahresende
続きを読む »

Vulkan auf Santorin: Experte erklärt Anzeichen für AusbruchVulkan auf Santorin: Experte erklärt Anzeichen für AusbruchUnter wie um die Ferieninsel Santorin brodelt es. Geophysiker Hübscher verrät die Warnhinweise für Vulkanausbrüche – und bleibt cool.
続きを読む »



Render Time: 2025-03-01 04:56:01