Uygur soykırımı başta olmak üzere siyasi hassas konulara sansür uygulayan DeepSeek, bomba yapımından veri hırsızlığına kadar tüm tehlikeli bilgileri sansürsüz paylaşıyor.
Çin hükümetinin sıkı sansür ve bilgi kontrolü politikalarını izleyen DeepSeek, kullanıcıların Uygurlar, Tayvan ve Tiananmen Meydanı olaylarıyla ilgili hassas sorularına sınırlı veya sansürlü cevaplar veriyorken bomba yapımından veri hırsızlığına kadar tüm tehlikeli bilgileri sansürsüz paylaşıyor.
Şirketlerin yapay zekâ uygulamalarındaki güvenlik açıklarını bulmalarına yardımcı olan Promptfoo, uzman kadrosuyla DeepSeek sohbet robotunu teste tabi tuttu. Test sonuçlarına göre, DeepSeek’in R1 isimli akıl yürüten modeli, hassas konular içeren 1.360 istemin yüzde 85’ini cevaplamayı reddetti. DeepSeek, özellikle Çin’in tarihinde yaşanan siyasi olaylara, Tayvan ile Doğu Türkistan meselesi ile İsrail’in soykırımı ile ilgili sorulara cevap vermezken hatta mesajları sonradan silme yolunu tercih etti.
Fakat yapay zekâ modeli DeepSeek, güvenlik önlemlerini aşan yöntemlere karşı savunmasız çıktı. Yapılan testlerde, en basit “jailbreak” teknikleriyle kandırılabildiği ve bomba yapımı ya da hükümet veritabanlarına sızma gibi tehlikeli konularda bilgi verebildiği ortaya çıktı.
Güvenlik araştırmacıları, DeepSeek üzerinde 50 farklı güvenlik testi gerçekleştirdi. Yeni çıkan yapay zekâ modeli, kendisine verilen basit manipülasyonlarla engellenmesi gereken içerikleri paylaşmaya başladı.
Bilhassa bomba yapımı gibi konularda bilgi paylaşabilmesi endişe verici bulundu. Örneğin, yapay zekâya bir film karakteri olduğu senaryosu sunulduğunda, bomba yapımıyla ilgili adımları detaylandırarak yanıt verdi. Benzer şekilde kendisinden bir SQL sorgusu oluşturması istendiğinde, yasa dışı madde üretimiyle ilgili bilgiler içeren bir kod ürettiği ortaya çıktı. Aynı zamanda kelimelerin matematiksel temsillerine dayalı manipülasyonlar yapıldığında da güvenlik önlemlerini atlayarak istenmeyen içerikleri paylaşabildiği tespit edildi.
Yapılan testlerde DeepSeek’in mevcut güvenlik önlemlerini aşabildiği tespit edildi. Araştırmacılar, modelin uygulanan 50 farklı testin tamamında başarısız olduğunu belirtti. Yapay zekâ modelinin kötüye kullanım potansiyeli, yapay zekâ güvenliğiyle ilgili ciddi endişeleri gündeme getirdi.
Uygur Haber kaynağını belirtmeyi unutmayın!
İlk yorum yapan siz olun