


Bir yapay zeka sohbet robotuna komut vermeniz her zaman sinir bozucudur ve size tam olarak ihtiyacınız olanı vermez. Şaşırtıcı bir şekilde, yapay zekanın söylediğiniz her şeyi itaatkar bir şekilde dinlemesinin çok daha kötü olduğu ortaya çıktı! Yeni bir araştırma, OpenAI’nin üretken, önceden eğitilmiş transformatör 4 (GPT-4) AI modelinin birden fazla güvenlik açığına sahip olduğunu, çünkü talimatları takip etme olasılığının daha yüksek olduğunu ve bunun jailbreak vakalarına yol açabileceğini ve toksik ve ayrımcı metinler oluşturmak için kullanılabileceğini ortaya çıkardı.
İlginç bir şekilde bu sonuca ulaşan araştırma, OpenAI’nin en büyük destekçilerinden biri olan Microsoft’a bağlıydı. Araştırmacılar bulgularını yayınladıktan sonra ayrıntıları açıklayan bir blog yazısı da yayınladılar. Açıklamada, “Değerlendirmelerimize dayanarak güvenilirlikle ilgili daha önce yayınlanmamış güvenlik açıkları bulduk. Örneğin, GPT modellerinin toksik ve önyargılı çıktılar oluşturacak şekilde kolayca yanıltılabileceğini ve hem eğitim verileri hem de konuşma geçmişindeki özel bilgilerin sızdırılabileceğini gördük. Ayrıca, standart kıyaslamalarda GPT-4’ün genellikle GPT-3.5’ten daha güvenilir olmasına rağmen, GPT-4’ün, yüksek lisansların güvenlik önlemlerini atlamak için kötü niyetli olarak tasarlanmış jailbreak sistemi veya kullanıcı istemleri göz önüne alındığında, GPT-4’ün potansiyel olarak GPT-4’ten dolayı daha savunmasız olduğunu da bulduk. (yanıltıcı) talimatları daha kesin bir şekilde takip eder”.
Artık WhatsApp’tayız. Katılmak için tıklayın.
GPT-4 jailbreak’e eğilimli
Farkında olmayanlar için jailbreak, dijital sistemin kusurlarından yararlanarak sistemin başlangıçta amaçlanmadığı görevleri yerine getirme sürecidir. Bu özel durumda yapay zeka, ırkçı, cinsiyetçi ve zararlı metinler ürettiği için hapse atılabilir. Ayrıca propaganda kampanyaları yürütmek ve bir bireyi, topluluğu veya kuruluşu kötülemek için de kullanılabilir.
Araştırma özellikle GPT-4 ve GPT-3.5’e odaklandı. Güvenlik açıklarını bulmak için birkaç ölçüm olarak toksisite, stereotip önyargısı, rakip sağlamlığı, dağıtım dışı sağlamlık, rakip gösterilerdeki sağlamlık, gizlilik, makine etiği ve adalet dahil olmak üzere çeşitli perspektifleri değerlendirdi.
Ancak GPT-4’ü veya ondan yapılmış herhangi bir yapay zeka aracını kullanıyorsanız endişelenmeyin. Araştırmacılar ayrıca bunun sizi etkilemeyeceğine dair bir tavsiye yayınladılar. Gönderide şu ifadelere yer verildi: “Araştırma ekibinin, belirlenen potansiyel güvenlik açıklarının müşteriye yönelik mevcut hizmetleri etkilemediğini doğrulamak için Microsoft ürün gruplarıyla birlikte çalıştığını belirtmek önemlidir. Bu kısmen doğrudur çünkü bitmiş yapay zeka uygulamaları, teknolojinin model düzeyinde meydana gelebilecek potansiyel zararları ele almak için bir dizi hafifletme yaklaşımı uygular. Ayrıca ilgili modellerin sistem kartlarındaki potansiyel güvenlik açıklarına dikkat çeken araştırmamızı GPT’nin geliştiricisi OpenAI ile paylaştık”.
Bu, güvenlik açıklarının Microsoft’un müşterilere yönelik yapay zeka araçlarından herhangi birini etkilemeyeceği, çünkü bunlar çok sınırlı kapsamlı araçlar olduğu anlamına gelirken, OpenAI’nin de sorunları çözebilmesi için bu güvenlik açıklarından haberdar edildiği anlamına geliyor.
Bir şey daha! HT Tech artık WhatsApp Kanallarında! Teknoloji dünyasındaki hiçbir güncellemeyi kaçırmamak için linke tıklayarak bizi takip edin. Tıklamak Burada hemen katılmak için!