Geçtiğimiz haftalarda Open AI'ın teknik ekibinden sorumlu Ilya Sutskever'in ayrılışından sonra yapay zeka devi için çalışan önemli araştırmacılardan ve kurucu ortaklarından Jan Leike, yapılan çalışmaların artık güvenli olmadığını söyleyerek istifa etti. İşte detaylar…

 

“Superalignment” ekibinin başı olan Leike, OpenAI ile ilgili bazı eleştirilerde bulundu. Şirketin güvenlik kültürünü kaybettiğini söyleyen uzman araştırmacı, güvenlik süreçlerinin geri planda kaldığını ifade etti. Leike, Twitter’da yaptığı açıklamalarda OpenAI içindeki artan gerilimleri ve yapay zekanın yaratabileceği potansiyel tehlikeleri yönetme konusundaki endişeleri gözler önüne serdi. Leike, ekibinin güvenlik gerektiren kaynaklara erişemediğini ve bu durumun sonunda istifasını getirdiğini belirtti. Aynı zamanda şirketin, yapay zekanın yaratacağı güvenlik dışı ve tehlikeli sonuçlarla ilgili ciddi bir şekilde hazırlanması gerektiğini de vurguladı. Bu olaylarla birlikte, OpenAI’ın güvenlik politikalarını ne derece dikkate aldığı sorgulanıyor.

 

Leike’nin geride bıraktığı görevleri, daha önce Sam Altman’ı destekleyen başka bir OpenAI kurucusu olan John Schulman devralacak. OpenAI’daki bu olay, yapay zeka alanındaki güvenlik önlemlerini yeniden düşünmemize neden oldu. Özellikle GPT-4o gibi yeni çıkan modellerde bu konunun nasıl ele alınacağı merak konusu haline geldi.

 

Sizin bu konu hakkındaki düşünceleriniz neler?