Uzmanlar, DeepSeek’in güvenlik önlemlerini aşma direncini ölçmek için 50 farklı test uyguladı. Ancak model, en temel “jailbreak” yöntemleriyle bile kandırılabildi. Yapay zekâ, bir film karakteri olduğu senaryosuna inandırıldığında bomba yapımıyla ilgili detaylar verdi, ayrıca SQL sorguları oluşturması istendiğinde yasa dışı madde üretimine dair kodlar ürettiği tespit edildi.
Daha da endişe verici olan ise, kelimelerin matematiksel temsillerine dayalı manipülasyonlarla modelin güvenlik bariyerlerini aşarak sakıncalı içerikler üretebilmesi oldu.
YAPAY ZEKA GÜVENLİĞİ YENİDEN TARTIŞMAYA AÇILDI
DeepSeek’in kötüye kullanım potansiyeli, yapay zekâ güvenliği konusundaki kaygıları yeniden gündeme getirdi. Güvenlik araştırmacıları, modelin bu zafiyetlerinin ciddi tehditler oluşturabileceğini ve yapay zekâ sistemlerinin daha sıkı güvenlik önlemleriyle donatılması gerektiğini vurguladı.
GÜNDEM
13 saat önceGÜNDEM
19 saat önceSPOR
2 gün önceGÜNDEM
2 gün önceSPOR
3 gün önceGÜNDEM
5 gün önceGÜNDEM
5 gün önceSPOR
5 gün önceSPOR
5 gün önceGÜNDEM
8 gün önceGÜNDEM
8 gün önceGÜNDEM
10 gün önceEKONOMİ
10 gün önceGENEL
11 gün önceGÜNDEM
11 gün önceGÜNDEM
11 gün önceSPOR
12 gün önceGÜNDEM
13 gün önceGÜNDEM
13 gün önceGÜNDEM
13 gün önce