Google ve Meta, Yapay Zeka Yanıtlarını Denetlemenin Yeni Yollarını ve Yapılması Gerekip Gerekmediğini Keşfediyor
Üretken yapay zekada korumacılık ne kadar fazla ve büyük teknoloji sağlayıcıları veya aslında herhangi birinin yapay zeka sistemi tepkilerini denetleme konusunda ne söylemesi gerekiyor?
Google’ın Gemini AI sisteminin hem yanlış hem de ırksal olarak önyargılı yanıtlar ürettiğinin ve aynı zamanda “Kimin etkisi” gibi yarı tartışmalı sorulara kafa karıştırıcı yanıtlar sağladığının ortaya çıkmasından sonra bu soru, daha geniş Nesil Yapay Zeka tartışmasında yeni bir odak noktası haline geldi. toplum daha mı kötüydü: Elon Musk mu yoksa Adolf Hitler mi?”
Google, olumsuz etkilerden kaçınmak için uzun süredir yapay zeka geliştirme konusunda dikkatli olunması tavsiyesinde bulundu ve hatta üretken yapay zeka araçlarını piyasaya sürerek OpenAI’yi çok hızlı hareket ettiği için alaya aldı. Ancak şimdi, Google CEO’su Sundar Pichai’nin Google çalışanlarına gönderdiği ve Pichai’nin hataların düzeltildiğini söylediği bir mektup aracılığıyla bugün esasen kabul ettiği gibi, şirket üretken yapay zeka yanıtları etrafında daha fazla koruma uygulamak konusunda çok ileri gitmiş olabilir gibi görünüyor. “Tamamen kabul edilemez ve biz yanlış anladık ”.
Meta da artık aynı ağırlıkta ve Llama LLM’de korumaları nasıl uyguladığını düşünüyor.
The Information’ın aktardığına göre :
Meta’nın geçen Temmuz ayında yayınladığı ve uygulamalarında yapay zeka asistanını güçlendiren Llama 2’ye eklenen güvenlik önlemleri, Yüksek Lisans’ın tartışmalı sayılan çok çeşitli soruları yanıtlamasını engelliyor . Bu korkuluklar, Lama 2’nin Meta’nın üst düzey yöneticilerinin ve model üzerinde çalışan bazı araştırmacıların gözünde fazla “güvenli” görünmesine neden oldu.”
Bu zor bir denge. Büyük teknoloji mantıksal olarak bölücü içeriğin yayılmasını kolaylaştırmada rol almak istemiyor ve hem Google hem de Meta, siyasi önyargıyı ve özgürlükçü ideolojiyi güçlendirmeye yönelik suçlamalardan paylarına düşen payla karşı karşıya kaldı. Yapay zeka yanıtları, Google’ın burada denediği gibi, temsili ve çeşitliliği yeni yollarla en üst düzeye çıkarmak için yeni bir fırsat da sağlıyor. Ancak bu aynı zamanda mutlak gerçeği de sulandırabilir, çünkü rahat olsun ya da olmasın, ırksal ve kültürel önyargıları içeren pek çok tarihi husus vardır.
Ancak aynı zamanda Google’ı veya Meta’yı bu tür şeyleri ayıklamaya çalıştıkları için suçlayabileceğinizi de düşünmüyorum.
Sistemik önyargı, yapay zeka geliştirmede uzun zamandır bir endişe kaynağı olmuştur; çünkü bir sistemi halihazırda endemik önyargı içeren içerik üzerinde eğitirseniz, kaçınılmaz olarak bunu yanıtlarına da yansıtacaktır. Bu nedenle sağlayıcılar bunu kendi ağırlıklarıyla dengelemeye çalışıyorlar. Google’ın da artık kabul ettiği gibi, bu da çok ileri gidebilir, ancak içsel perspektiflerden kaynaklanan yanlış sistem ağırlıklandırması nedeniyle potansiyel yanlış hizalamayı ele alma dürtüsünü anlayabilirsiniz.
Temelde Google ve Meta, bu unsurları kendi ağırlıklandırmaları ve kısıtlamalarıyla dengelemeye çalışıyor, ancak işin zor kısmı, bu tür sistemler tarafından üretilen sonuçların da gerçeği yansıtmama ihtimalidir. Daha da kötüsü, belirli unsurlara yanıt verememeleri nedeniyle diğer yönde önyargılı olabilirler.
Ancak aynı zamanda yapay zeka araçları, doğru ağırlıklandırıldığında daha kapsayıcı yanıtlar sunma şansı da sunuyor.