ChatGPT: Europol weist auf Missbrauchspotenzial durch Cyberkriminelle hin
ChatGPT birgt viel Potenzial: Der Chatbot wird auch von vielen Lesern eifrig genutzt – sei es für Unterstützung beim Programmieren, das Umformulieren von Texten oder komplexere Suchanfragen. Doch wo die Einsatzmöglichkeiten vielfältig sind, sind auch Kriminelle meistens nicht weit. Genau darauf weist aktuell Europol hin.
Europol geht es dabei nicht nur speziell um ChatGPT, sondern allgemein um sogenannte „Large Language Models“ (LLMs). So versucht man sich bereits am offenen Dialog mit Anbietern mit OpenAI, um das Missbrauchsrisiko zumindest möglicherweise senken zu können. Auch hält man Workshops mit Gesetzeshütern ab, um sie für das Thema zu sensibilisieren. Denn aktuell kann man nur einen Ausblick auf das geben, was sich Cyberkriminelle so einfallen lassen könnten.
Aktuell sei es wichtig, überhaupt auf die Risiken aufmerksam zu machen. Dadurch könnten KI-Unternehmen motiviert werden, von Haus aus Schutzmaßnahmen zu ergreifen. Und die Ermittler wüssten besser, worauf sie überhaupt achten müssten. Dabei will man bei Europol im Wesentlichen drei Bereiche entdeckt haben, in denen Tools wie ChatGPT wohl in Zukunft für Kriminelle eine große Rolle spielen dürften.
1.: Betrug und Social Engineering: ChatGPT kann als Phishing-Werkzeug genutzt werden. So kann der Chatbot so dem Empfänger von Nachrichten bekannte Organisationen, Gruppen oder Individuen imitieren. Das könnte Phishing-Messages noch echter wirken lassen.
2. Fake-News und Desinformationskampagnen: ChatGPT kann authentisch klingende Texte in hoher Geschwindigkeit und Qualität erstellen. Das macht es zu einem idealen Propaganda- und Desinformations-Werkzeug. Rasch lassen sich Narrative in großer Reichweite verbreiten.
3. Weitere Cyber-Kriminalität: Auch Kriminelle mit wenig technischem Wissen können ChatGPT einsetzen, um etwa Code zu erstellen. Daher ist davon auszugehen, dass die Quantität der Cyber-Angriffe in Zukunft stark zunehmen dürfte.
Hinweis: Europol spricht aktuell vor allem über ChatGPT, weil es das derzeit am häufigsten eingesetzte LLM ist. Die Angaben lassen sich aber auch auf andere Systeme übertragen.
# | Vorschau | Produkt | Preis | |
---|---|---|---|---|
1 | Microsoft Windows 11 Home | 1 Gerät | 1 Benutzer | PC Aktivierungscode per Email | 126,27 EUR | Bei Amazon ansehen | |
2 | Microsoft Windows 11 Pro Activation Key [Internet Required For Downloading] Email Delivery in 24... | 49,90 EUR | Bei Amazon ansehen | |
3 | Microsoft Windows 11 Pro | 199,90 EUR | Bei Amazon ansehen |
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Ich hatte ja die Hoffnung, dass chatGPT schlau genau ist, um Lücken in Gesetzen zu entdecken. Aber ich wurde schwer enttäuscht. Der Kerl ist zwar „belesen“ (besurft), aber er ist strunzdumm und erzkonservativ. Er hat überhaupt keine Fähigkeiten, eigene Schlußfolgerungen zu ziehen. Im Gegenteil: er legt jedes Gesetz im vorauseilenden Gehorsam aus, und übersieht dabei sogar die offensichtlichen Feinheiten. Wenn also im Gesetz steht dass innerhalb der Stadt nicht gehupt werden darf, so behauptet er vollmundig, dass man überhaupt nicht hupen darf. Und hängt noch 4 Zielen Belehrung hinten dran. Nein liebe Polizei, Betrug geht damit nicht.
Ich finde, dass Europol dann aber auch vor Menschen allgemein warnen müsste. Denn die können das auch und zwar noch viel besser.