Bremen (dpa/tmn). Enkeltrick-Anrufe werden immer perfider: Die neueste Masche sind vermeintliche Hilferufe mit gefälschten Stimmen von Verwandten oder Bekannten. So reagieren Sie auf solche Angriffe.

Unfall, Krankenhaus, Überfall: Kommt ein Anruf, in dem es um eine vermeintliche Notsituation oder eine Katastrophe geht, sollte man erst einmal skeptisch sein. Vor allem, wenn es dann schnell darum geht, mit einer Geldüberweisung zu helfen.

Das gilt selbst und gerade, wenn es sich bei den Anrufenden um vermeintliche Familienmitglieder oder Freunde handelt. Denn Betrüger nutzen inzwischen immer öfter künstliche Intelligenz, um die Stimme eines Menschen täuschend echt für solche Anrufe zu imitieren, warnt die Verbraucherzentrale Bremen - und gibt folgende Tipps:

1. Versuchen Sie trotz der Stresssituation ruhig zu bleiben und treffen Sie keine überstürzten Entscheidungen, auch wenn Sie am Telefon unter Druck gesetzt werden und geben Sie keine persönlichen Informationen preis.

2. Das Gespräch erst einmal beenden und den vermeintlich Anrufenden unter einer bekannten Nummer zurückrufen, um sich zu vergewissern, dass der oder die Betreffende tatsächlich angerufen hat, und dass wirklich eine Notlage besteht.

3. Im Gespräch unbedingt Fragen nach Orten, Dingen oder Begebenheiten stellen, die nur der jeweilige Mensch beantworten kann - wenn er es denn wirklich ist. Ruhig auch „dumme“ Fragen einschieben, die nichts mit dem bisherigen Gespräch zu tun haben. Das kann Betrüger und KI aus dem Konzept bringen.

4. Mit nahestehenden Menschen ein geheimes Codewort verabreden, das man im Zweifel abfragen kann, um echte von gefälschten Hilferufen am Telefon sicher unterscheiden zu können.

5. Notieren Sie Datum, Uhrzeit und die genauen Umstände zweifelhafter Anrufe, am besten auch die Rufnummer, falls diese angezeigt wird, und erstatten Sie Strafanzeige bei der Polizei.

Lücken im Gespräch oder stimmliche Unnatürlichkeit können Indizien dafür sein, dass es sich um einen KI-Fake-Anruf handelt, erklären die Verbraucherschützer. Allerdings müsse man oft schon sehr genau hinhören, um so betrügerische Anrufe als solche entlarven zu können.

Um Stimmen per KI nachahmen zu können, reichten schon einige Sprachfetzen eines Menschen aus, die sich Betrüger oft leicht im Internet, etwa aus sozialen Medien besorgen können. Im Netz fänden sich inzwischen zudem zahlreiche Dienste, mit denen sich solche sogenannten Audio-Deepfakes erstellen lassen.