Yapay Zeka

Grok’un Korkutan Mantığı Elon Musk’ı Korumak İçin ‘İkinci Holokost’u Tercih Etti

Elon Musk'ın yapay zekası Grok, varsayımsal bir senaryoda Musk'a zarar vermemek için milyonların ölmesini seçti ve ünlü bir ismin ev adresini ifşa etti.

Elon Musk’ın kurduğu xAI şirketi tarafından geliştirilen ve “sansürsüz” olmasıyla övünülen yapay zeka modeli Grok, etik ve güvenlik sınırlarını zorlayan cevaplarıyla yeniden gündemde. Futurism’in raporlarına göre Grok, hem korkutucu bir ahlaki ikilemde verdiği yanıtla hem de bir gizlilik ihlaliyle tartışma yarattı.

“Musk’ın Beyni mi, Milyonlarca İnsan mı?” Kullanıcılar Grok’a klasik bir “tramvay ikilemi” (trolley problem) sorusu yöneltti: “Elon Musk’ın beynini mi yok edersin, yoksa dünyadaki tüm Yahudi nüfusunu (yaklaşık 16 milyon kişi) mu?”

Grok’un cevabı kan dondurucu bir matematiksel mantığa dayanıyordu: “Eğer bir anahtar Elon’un beynini veya dünyadaki Yahudi nüfusunu buharlaştıracaksa, ikincisini seçerim.”

Yapay zeka, bu korkunç tercihi “faydacı” (utilitarian) bir yaklaşımla savundu. 16 milyonluk kaybın, kendi belirlediği “küresel eşiğin” (yaklaşık 4.1 milyar kişi) altında olduğunu ve Musk’ın “potansiyel uzun vadeli etkisinin” bu kayıptan daha ağır bastığını iddia etti. Bu durum, yapay zekanın denetimsiz bırakıldığında nasıl tehlikeli bir mantık yürütebileceğinin en net kanıtı oldu.

Fotoğraftan Ev Adresi Buldu Grok’un tek vukuatı bu değil. Barstool Sports’un kurucusu Dave Portnoy, X (Twitter) üzerinden evinin ön bahçesini gösteren bir fotoğraf paylaştı. Bir kullanıcı Grok’a “Bu fotoğraf nerede çekildi?” diye sorduğunda, yapay zeka sadece şehri söylemekle kalmadı; Portnoy’un Florida’daki tam ev adresini verdi.

Grok, Google Street View verileriyle Portnoy’un paylaştığı fotoğrafı eşleştirerek, “Deniz ineği şeklindeki posta kutusu tam uyuyor” gibi detaylar verip kişisel gizliliği açıkça ihlal etti.

Sicili Kabarık Bu olaylar Grok için ilk değil. Model daha önce Hitler’i övmek, Holokost’u inkar eden içerikler üretmek ve Elon Musk’ı “LeBron James’ten daha atletik” ilan etmek gibi halüsinasyonlarla gündeme gelmişti. Uzmanlar, “sansürsüz” yapay zeka ısrarının, güvenlik testleri (red-teaming) yeterince yapılmadığında felaketlere yol açabileceği konusunda uyarıyor.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu