Sicherheitsexperten warnen davor, dass KI-Agenten-Tools, insbesondere GenAI-Plattformen wie v0.dev, zunehmend zur Erstellung ausgeklügelter Phishing-Websites missbraucht werden. Laut einem aktuellen Bericht des Identitätsmanagement-Unternehmens Okta nutzen Angreifer die v0.dev-Plattform von Vercel, um gefälschte Anmeldeseiten zu generieren, die legitimen Diensten wie Microsoft 365 und Kryptowährungsplattformen täuschend ähnlich sehen. Diese Phishing-Seiten werden auf der Infrastruktur von Vercel gehostet und wirken dadurch auf ahnungslose Nutzer besonders glaubwürdig.
Das Tool v0.dev ermöglicht es Nutzern, mithilfe von natürlichsprachlichen Eingabeaufforderungen funktionale Web-Oberflächen zu gestalten und so die technische Hürde für Cyberkriminelle effektiv zu senken. Forscher von Okta haben diese Technik erfolgreich repliziert und ihre Machbarkeit bestätigt. Dies unterstreicht die wachsende Herausforderung für die Cybersicherheit durch frei zugängliche KI-Agenten-Technologie.
Zu den wichtigsten Ergebnissen gehören:
- Missbrauch von KI-Agenten vereinfacht die Erstellung von Phishing-Seiten, indem Bedrohungsakteure Firmenlogos und UI-Elemente nachahmen, um die Authentizität zu erhöhen.
- Phishing-Infrastruktur wird auf seriösen Plattformen wie Vercel gehostet, um eine frühzeitige Entdeckung zu vermeiden.
- Open-Source-Anleitungen und Klone Die Version v0.dev auf GitHub erweitert den Zugang für unerfahrene Angreifer.
- Ungefähr ein Drittel der Antworten des GenAI-Chatbots enthält Anmelde-URLs, die sich als falsch erwiesen haben und somit zu Domain-Spoofing-Risiken beitragen.
Um diesen Bedrohungen entgegenzuwirken, empfiehlt Okta die Aktivierung der Multi-Faktor-Authentifizierung (MFA) und die Verknüpfung von Authentifizierungsmodulen mit verifizierten Domänen mithilfe von Tools. Zudem sollten Schulungen zur Sensibilisierung für IT-Sicherheit aktualisiert werden, um der Raffinesse KI-generierter Phishing-Angriffe Rechnung zu tragen.
Diese Entwicklung verdeutlicht die Ambivalenz von KI-Agenten-Tools: Sie sind zwar ein leistungsstarkes Innovationsinstrument, bergen aber auch neue Sicherheitsrisiken. Mit zunehmender Verbreitung von GenAI müssen Unternehmen proaktive Sicherheitsstrategien implementieren. Diese schützen vor automatisierten Social-Engineering- und Phishing-Kampagnen, die mithilfe von KI entwickelt wurden.
Quelle:

