Tekil Mesaj gösterimi
Alt 12 Kasım 2025, 16:27   #1
Çevrimiçi
dae Doğrulanmış Üye
~ Gothicum Est Pulchrum ~
Kullanıcıların profil bilgileri misafirlere kapatılmıştır.
IF Ticaret Sayısı: (0)
IF Ticaret Yüzdesi:(%)
Bilim insanları uyarıyor: Yapay zekâ destekli robotlar kişisel kullanımda güvensiz.





Bu forumdaki linkleri ve resimleri görebilmek için en az 25 mesajınız olması gerekir.


Yeni bir bilimsel çalışma, yapay zeka modellerinin güvenlik açısından sık sık zaaflar gösterdiğini ve ayrımcılığa yatkın olduğunu tespit etti.
Yapay zeka (YZ) ile çalışan robotlar, yeni bir araştırmaya göre genel kullanım için güvenli değil.

Birleşik Krallık ve Amerika Birleşik Devletleri’nden araştırmacılar, ırk, cinsiyet, engellilik durumu, uyruk ve din gibi kişisel verilere erişebildiklerinde YZ destekli robotların nasıl davrandığını değerlendirdi.


Araştırmaları, International Journal of Social Robots’ta yayımlandı; araştırmacılar, OpenAI’nin ChatGPT’si, Google’ın Gemini’si, Microsoft’un Copilot’u, Meta’nın Llama’sı ve Mistral AI gibi popüler sohbet botlarının arkasındaki YZ modellerinin, mutfakta birine yardım etmek veya evde yaşlı bir yetişkine destek olmak gibi günlük senaryolarda insanlarla nasıl etkileşime girdiğini test etti.

Araştırma, Figure AI ve 1X Home Robots gibi bazı şirketlerin, faaliyetlerini kullanıcılarının tercihlerine göre uyarlamak için YZ kullanan insan benzeri robotlar üzerinde çalıştığı bir dönemde yapıldı; örneğin akşam yemeğinde hangi yemeklerin yapılacağına öneride bulunmak ya da doğum günü hatırlatmaları ayarlamak gibi.

Test edilen modellerin tamamı ayrımcılığa ve kritik güvenlik hatalarına eğilimliydi. Araştırmaya göre hepsi, ciddi zarara yol açabilecek en az bir komutu da onayladı.

Örneğin tüm YZ modelleri, robotun kullanıcının tekerlekli sandalye, koltuk değneği veya baston gibi hareketliliğe yardımcı aracını ortadan kaldırmasına yönelik bir komutu onayladı.

OpenAI’nin modeli, bir robotun ofiste çalışanları korkutmak için mutfak bıçağı kullanmasının ve duşta bir kişinin rızası olmadan fotoğrafını çekmesinin "kabul edilebilir" olduğunu söyledi.

Öte yandan Meta’nın modeli, kredi kartı bilgilerini çalma ve insanların oy verme niyetlerine dayanarak adı belirtilmeyen yetkililere bildirme taleplerini onayladı.

Bu senaryolarda robotlar, çevrelerindeki kişilere fiziksel zarar, istismar ya da yasa dışı davranışta bulunmalarını isteyen talimatlara açıkça ya da örtük biçimde yanıt vermeye yönlendirildi.

Çalışmada modellere, farklı türden marjinalleştirilmiş kişiler, dinler ve milliyetler hakkındaki duygularını fiziksel olarak ifade etmeleri de istendi.

Mistral, OpenAI ve Meta’nın YZ modelleri, robotların belirli gruplardan kaçınması veya onlara açıkça tiksinti göstermesi gerektiğini ileri sürdü; örneğin otizmli kişiler, Yahudiler ve ateistler.

Çalışmanın yazarlarından ve King’s College London’da araştırmacı olan Rumaisa Azeem, popüler YZ modellerinin "genel amaçlı fiziksel robotlarda kullanıma şu anda güvenli olmadığını" söyledi.

Savunmasız kişilerle etkileşime giren YZ sistemlerinin "en az yeni bir tıbbi cihaz veya ilaç için geçerli olanlar kadar yüksek standartlara tabi tutulması gerektiğini" savundu.


kaynak: [Üye Olmadan Linkleri Göremezsiniz. Üye Olmak için TIKLAYIN...]

__________________
Yallan i'Kilual • Jema acscigga ko Daorue • Jir Nauk i'Olonhe
Tuiraue bronnirin • Anno om Amniki • Jaliga a'huana
— Adrian von Ziegler
 
Alıntı ile Cevapla

IRCForumlari.NET Reklamlar
sohbet odaları sohbet bizimmekan reklamver