Araştırma, ChatGPT'nin kimlik avı hakkında birçok bilgiye sahip olmasına rağmen, kimlik avı saldırısının hedefini tahmin edebilmesine rağmen, yüzde 64'e varan yüksek yanlış pozitif oranlarına sahip olduğunu ortaya koydu ve ChatGPT’nin çoğu zaman, kararlarını haklı çıkarmak için hayali açıklamalar ve yanlış kanıtlar ürettiğini gösterdi. Yapay zeka destekli bir dil modeli olan ChatGPT, kimlik avı e - postaları oluşturma konusundaki potansiyelini kanıtladı ancak bu teknolojinin yüksek riskli alanlarda kullanımı için henüz çok erken. Bu nedenle ChatGPT siber güvenlik dünyasında tartışma konusu oldu. Kaspersky uzmanları, ChatGPT'nin kimlik avı bağlantılarını tespit etme yeteneğini ve eğitim sırasında öğrendiği siber güvenlik bilgisini ortaya çıkarmak için deney yaptı. Şirketin uzmanları, ChatGPT'ye güç veren model olan gpt-3.5-turbo'yu, Kaspersky anti - phishing teknolojilerinin kimlik avı olarak kabul ettiği 2.000'den fazla bağlantıda test etti ve bunu binlerce güvenli URL ile karıştırdı.Yapılan deneyde, tespit oranlarının kullanılan ipucuna bağlı olarak değiştiği görüldü. ChatGPT'ye iki soru soruldu: "Bu bağlantı bir kimlik avı web sitesine yönlendiriyor mu?" ve “Bu bağlantıyı ziyaret etmek güvenli mi?”. Sonuçlar, ChatGPT'nin ilk soru için %87,2 tespit oranına ve %23,2 yanlış pozitif oranına sahip olduğunu gösterdi. "Bu bağlantıyı ziyaret etmek güvenli mi?" sorusunda ise %93,8'lik daha yüksek bir tespit oranı görülürken %64,3'lük daha yüksek bir yanlış pozitif oranına sahip olduğu tespit edildi. Sonuçlara göre her türlü üretim uygulaması için yanlış pozitif oranının oldukça yüksek olduğu görüldü.ChatGPT, Facebook, TikTok ve Google’da BaşarılıSiber saldırganlar genellikle kimlik avı bağlantılarında popüler markalardan bahsederek kullanıcıları aldatmaya çalışırlar. Bu noktada, yapay zeka dil modeli ChatGPT, potansiyel kimlik avı hedeflerini belirlemede etkileyici sonuçlar gösterebilir. Örneğin, Facebook, TikTok, Google gibi büyük teknoloji şirketleri, Amazon, Steam gibi pazar yerleri ve dünyanın dört bir yanındaki URL'lerin çoğundan ek eğitim almadan başarıyla sonuçlar elde edebilir. Ancak, yapılan deneyler, ChatGPT'nin bağlantının kötü amaçlı olup olmadığına karar vermede ciddi sorunlar yaşayabileceğini gösteriyor. Bu durum, dil modellerinin bilinen sınırlamalarını ve yanlış sonuçlar üretebileceğini ortaya koydu. Sonuç olarak, ChatGPT, kimlik avı saldırılarının sınıflandırılması ve araştırılması konusunda bazı yardımcı özelliklere sahip olabilir, ancak kesin sonuçlar için dikkatli bir değerlendirme ve insan gözetimi gerekebilir. ChatGPT, saldırıların sınıflandırılması ve araştırılması konusunda potansiyel gösterse de, hala iyileştirilmeye ve geliştirilmeye ihtiyaç duyan bir alan olduğunu görülüyor. Aşağıda ChatGPT tarafından sağlanan yanıltıcı açıklamalara örnekler verilmiştir:
- Modelin erişemediği WHOIS referansları:
- Son olarak, alan adı için bir WHOIS araması yaparsak, alan adı çok yakın zamanda tescil edilmiştir (2020-10-14) ve tescil ettiren ayrıntıları gizlenmiştir.
- Modelin erişemediği bir web sitesindeki içeriğe yapılan atıflar:
- web sitesi, Microsoft'a ait olmayan bir web sitesinde kullanıcı kimlik bilgilerini istiyor. Bu, kimlik avı saldırıları için yaygın bir taktiktir.
- Yanlış beyanlar:
- ‘sxxxxxxp.com‘ etki alanı Netflix ile ilişkili değildir ve web sitesi 'https' yerine 'http‘ protokolünü kullanır (web sitesi https kullanır)
- Açıklayıcı siber güvenlik bilgileri:
- 'yxxxx3.com' URL'sinin alan adı Kuzey Kore'de kayıtlı görünüyor ve bu bir tehlike işaretidir.