OpenAI, yapay zekanın 'felaket risklerini' değerlendirmek için yeni ekip kuruyor - Dünyadan Güncel Teknoloji Haberleri

OpenAI, yapay zekanın 'felaket risklerini' değerlendirmek için yeni ekip kuruyor - Dünyadan Güncel Teknoloji Haberleri
” “Fakat aynı zamanda giderek daha ciddi riskler de yaratıyorlar ”

Aleksander Madry, şu anda kim izinli MIT’nin Konuşlandırılabilir Makine Öğrenimi Merkezi’nin direktörlüğü görevinden itibaren hazırlık ekibine liderlik edecek Hazırlık ekibinin ele alacağı diğer bazı riskler arasında yapay zekanın insanları kandırma yeteneğinin yanı sıra siber güvenlik tehditleri de yer alıyor OpenAI, hazırlık ekibinin aynı zamanda şirketin yapay zeka modellerini değerlendirmek ve izlemek için ne yaptığını özetleyen bir “risk bilgili geliştirme politikası” geliştirip sürdüreceğini belirtiyor İçinde perşembe günü güncellemeOpenAI, hazırlık ekibinin nükleer tehditler de dahil olmak üzere yapay zekanın neden olduğu potansiyel büyük sorunlara karşı “takip edeceğini, değerlendireceğini, tahmin edeceğini ve koruyacağını” söylüyor

OpenAI güncellemede şöyle yazıyor: “Mevcut en gelişmiş modellerde mevcut olan yetenekleri aşacak ileri düzey yapay zeka modellerinin tüm insanlığa fayda sağlama potansiyeline sahip olduğuna inanıyoruz


OpenAI, yapay zeka ile ilişkili “yıkıcı riskleri” azaltmak için yeni bir ekip kuruyor



genel-2

Ekip ayrıca “kimyasal, biyolojik ve radyolojik tehditlerin” yanı sıra “otonom kopyalama” veya yapay zekanın kendini kopyalama eylemini azaltmak için de çalışacak