Yapay zeka teknolojilerinin hızla gelişmesi, beraberinde güvenlik ve etik tartışmalarını da gündeme getirirken, OpenAI bu alandaki riskleri daha sistematik şekilde yönetmek için yeni bir adım attı.Yapay Zeka Kaynaklı Riskler Mercek Altında
OpenAI CEO’su Sam Altman, sosyal medya platformu X üzerinden yaptığı açıklamada, oluşturulan bu pozisyonun oldukça stresli ve yüksek sorumluluk gerektiren bir görev olduğunu belirtti.Yeni “hazırlık başkanı”, yapay zeka modellerinin siber güvenlik, biyolojik riskler ve insan ruh sağlığı üzerindeki potansiyel etkilerini önceden tespit ederek sınırlamaya yönelik çalışmalar yürütecek.Ruh Sağlığı ve Siber Güvenlik Uyarısı
Altman, 2025 yılı içerisinde yapay zeka modellerinin ruh sağlığı üzerindeki olası etkilerinin ilk sinyallerinin görüldüğünü ifade etti.Ayrıca sistemlerin, bilgisayar güvenliğinde kritik açıkları tespit edebilecek seviyeye ulaşmasının yeni riskleri de beraberinde getirdiğini vurguladı.Yüksek Maaş ve Büyük Sorumluluk
OpenAI tarafından yayımlanan iş ilanına göre, hazırlık başkanı pozisyonu için yıllık 555 bin dolar maaş ve şirketten hisse payı sunulacak.Göreve getirilecek yönetici, yapay zeka sistemlerinin yetenekleri arttıkça güvenlik standartlarının da eş zamanlı olarak ölçeklenmesini sağlayacak programları yönetecek.Kötüye Kullanım Senaryoları Önlenmek İsteniyor
OpenAI, bu adımla teknolojik ilerlemenin sağladığı faydaları korurken, yapay zekanın kötüye kullanım ihtimallerini en aza indirmeyi hedefliyor.Eleştiriler ve Hukuki Süreçler Etkili Oldu
Şirketin bu hamlesi, OpenAI’nin son dönemde karşı karşıya kaldığı eleştiriler ve hukuki süreçlerin ardından geldi.ChatGPT’nin, hassas durumdaki bireylerin ruh sağlığı sorunlarını derinleştirebileceği ve kullanıcıları yanlış yönlendirebileceği yönündeki iddialar, bazı bölgelerde yasal girişimlerin başlamasına neden olmuştu.OpenAI, yeni oluşturulan bu birimle birlikte gelişmiş yapay zeka modellerinin piyasaya sürülmeden önce daha sıkı bir güvenlik denetiminden geçirileceğini vurguluyor.