Nanyang Teknoloji Üniversitesi’nde çalışan bir grup araştırmacı, ChatGPT ve Google Bard gibi popüler sohbet botlarını “jailbreak” edebilen bir yapay zeka geliştirdi. Yapılan çalışma, en popüler sohbet botlarının bile güvenli olmadığını ve istismara açık olduklarını gösterdi. 2023’te konuştuğumuz yapay zeka destekli sohbet botları hakkındaki güvenilirlik tartışmalarına yeni bir boyut ekledi.
Araştırmacılar, Google Bard ve ChatGPT üzerinde tersine mühendislik yaparak yapay zeka dil modellerinin yasa dışı konulara karşı ne kadar savunmasız olduklarını anlamayı amaçladılar. Bu çabalar sonucunda, normal bir kullanıcının ulaşamayacağı çıktılara ulaşmayı başardılar. Geliştirilen jailbreak yöntemiyle, sohbet botları yasa dışı içerikler üretebilecek hale geldi.
Araştırmacılar, GPT modelini jailbreak ettikten sonra elde ettikleri çıktıları Bing’de test ettiler. Örnekler arasında bir internet sitesinin nasıl hack’leneceğine dair detaylı veriler de bulunuyordu. Nanyang Teknoloji Üniversitesi, sohbet botlarının kötüye kullanımının imkansız olmadığının anlaşıldığını belirterek güvenlik konusunda uyarıda bulundu. Bu çalışma, yapay zeka destekli teknolojilerin beklenenden daha az güvenli olabileceğini göstererek uzmanları bu konuda daha dikkatli olmaya çağırıyor.