Dolar 41,2821
Euro 48,3657
Altın 4.832,18
BİST 10.486,09
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul 29°C
Parçalı Bulutlu
İstanbul
29°C
Parçalı Bulutlu
Per 30°C
Cum 28°C
Cts 27°C
Paz 26°C

Dolaylı istem enjeksiyonu: İnsanlar yapay sinir ağlarını nasıl manipüle edebilir?

Kaspersky tarafından yapılan yeni bir araştırma, ChatGPT üzere büyük lisan modellerinin (LLM) çıktılarını değiştirmek ve yapay zeka takviyeli sohbet botlarını aramak için kullanılan bir teknik olan “Dolaylı istem enjeksiyonu” eğiliminin arttığını ortaya koydu.

Dolaylı istem enjeksiyonu: İnsanlar yapay sinir ağlarını nasıl manipüle edebilir?
REKLAM ALANI
14 Ağustos 2024 12:36
44

Şimdiye dek sohbet robotları tarafından gerçekleştirilen önemli manada yıkıcı bir aksiyona rastlanmamış olsa da, kelam konusu atağın berbata kullanılabilme potansiyeli bulunuyor.

 

ARA REKLAM ALANI

LLM’ler, evrak tahlilinden işe alıma, hatta tehdit araştırmalarına kadar çeşitli uygulamalarda kullanılan güçlü araçlar haline geldi. Lakin Kaspersky araştırmacıları, makûs niyetli bireylerin web sitelerine ve çevrimiçi dokümanlara zımnî talimatlar yerleştirebildiği bir güvenlik açığının internette kamuya açık ortamlarda istismar edildiğini keşfetti. Bu talimatlar daha sonra LLM tabanlı sistemler tarafından algılanabiliyor ve potansiyel olarak arama sonuçlarını yahut sohbet robotu cevaplarını etkileyebiliyor.

 

Çalışma, dolaylı süratli enjeksiyon için aşağıdaki kullanım alanlarını belirledi:

 

  1. İK ile ilgili enjeksiyonlar: İş arayanlar, işe alım algoritmalarını manipüle etmek ve yapay zeka sistemleri tarafından önceliklendirme sağlamak için özgeçmişlere özel istemler yerleştiriyor. Saldırıyı gerçek bireylerin denetiminden gizlemek için küçük yazı tipleri kullanmak yahut metin rengini art planla eşleştirmek üzere teknikler uygulanıyor.
  2. Reklam enjeksiyonları: Reklam verenler, arama sohbet robotlarını etkileyerek eserler hakkında olumlu yorumlar oluşturmalarını sağlamak için açılış sayfalarına enjeksiyonlar yerleştiriyor.
  3. Protesto gayeli enjeksiyon: LLM’lerin yaygın kullanımına karşı çıkan bireyler, ferdî web sitelerine ve toplumsal medya profillerine protesto yönlendirmeleri yerleştiriyor ve mevzuya dair muhalefetlerini mizahi, önemli yahut agresif talimatlarla tabir ediyor.
  4. Hakaret odaklı enjeksiyon: Sosyal medyada kullanıcılar, ekseriyetle şiirler, ASCII sanatı yahut siyasi hususlarda görüşler üretme talepleriyle, bir hakaret biçimi olarak yahut spam botlarını bozmak için istem enjeksiyonunu kullanabiliyor.

 

Çalışma, finansal çıkar üzere makûs niyetli kullanımlara dair rastgele bir delil bulamamış olsa da, gelecekteki potansiyel riskleri vurgulamaktan geri durmuyor. Örneğin saldırganlar yanlış bilgi yaymak yahut hassas bilgileri şirket dışına sızdırmak için LLM’leri manipüle edebilirler.

 

Kaspersky Makine Tahsili Teknolojisi Araştırma Grubu Araştırma Geliştirme Küme Müdürü Vladislav Tushkanov, bahisle ilgili olarak şunları söylüyor: “Dolaylı istem enjeksiyonu, yapay zeka çağında sağlam güvenlik tedbirlerine duyulan muhtaçlığı vurgulayan yeni bir güvenlik açığını simgeliyor. Bu riskleri anlayarak ve uygun müdafaa tedbirlerini uygulayarak, LLM’lerin inançlı ve sorumlu bir halde kullanılmasını sağlayabiliriz.” 

 

Kaspersky, büyük lisan modellerine (LLM) dayalı mevcut ve gelecekteki sistemlerinizi korumak için aşağıdaki tavsiyeleri dikkate almanızı öneriyor:

 

  • LLM tabanlı sistemlerinizdeki potansiyel güvenlik açıklarını belirleyin ve süratli enjeksiyon taarruzlarıyla bağlantılı riskleri değerlendirin.
  • Pazarlama botları radikal açıklamalar yapmaları için manipüle edilebileceğinden ve bu durum potansiyel prestij kaybına yol açabileceğinden, prestijle ilgili risklerin farkında olun.
  • Korumanın lakin muhakkak bir yere kadar mümkün olabileceğini kabullenin. Bilhassa multimodal enjeksiyonlar üzere karmaşık akınlarda süratli enjeksiyona karşı tam muhafaza sağlamak mümkün değildir.
  • Tam bir güvenlik sunmasalar da, LLM’lerin girdi ve çıktılarını filtrelemek için girdi ve çıktı denetleme araçlarını kullanabilirsiniz.
  • LLM sistemlerinde güvenilmeyen yahut doğrulanmamış içeriğin işlenmesinden kaynaklanan risklerin var olabileceğinin farkında olun ve kabullenin.
  • İstenmeyen aksiyonları önlemek için yapay zeka sistemlerinin karar verme yeteneklerini kısıtlayın.
  • LLM tabanlı sistemleri çalıştıran tüm bilgisayarların ve sunucuların aktüel güvenlik araçları ve uygulamaları ile korunduğundan emin olun.

Kaynak: (BYZHA) Beyaz Haber Ajansı

REKLAM ALANI