Uzmanlardan Yapay Zeka Uyarısı
Son yıllarda önemli bir sıçrama yapan yapay zeka teknolojisi, bir süredir son kullanıcıların da hizmetine sunulmuş durumda. Bunun en dramatik örneği OpenAI şirketinin geliştirdiği ChatGPT teknolojisi ve yapay zekanın kullanımının hızla yaygınlaşması. Birçok alanda halihazırda insan performansının üzerine çıkmayı başaran bu teknolojinin gelecekte yapabilecekleri hem iyimserlik hem de endişe yaratıyor. Yapay zeka konusunda önde gelen bir grup kanaat önderi, bu teknolojinin bir gün insanlık için varoluşsal bir tehdit oluşturabileceği ve salgın hastalıklar ve nükleer savaşlarla eşit düzeyde bir toplumsal risk olarak görülmesi gerektiği konusunda uyarıda bulundu.
Kar amacı gütmeyen bir kuruluş olan Center for AI Safety tarafından yayınlanan tek cümlelik açıklamada, “Yapay zeka kaynaklı insanlığın soyunun tükenmesi riskinin azaltılması, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerle birlikte küresel bir öncelik olmalıdır” denildi. Bir cümleden oluşan bu açık mektup, yapay zeka alanında çalışan 350’den fazla yönetici, araştırmacı ve mühendis tarafından imzalandı. Açıklamanın kısalığı yapay zekaya dair risklerin tam olarak ne olduğu ve hangi adımların atılması gerektiği konusunda hemfikir olmayan, ancak güçlü yapay zeka sistemleri hakkında endişeleri paylaşan uzmanlarını bir araya getirmeyi amaçlıyor.
Yapay zekanın potansiyel tehlikeleri bir süredir kamuoyunda ve bilimsel çevrelerde tartışma konusu oluyor. En büyük endişelerden biri, yapay zekanın geleneksel olarak insanlar tarafından gerçekleştirilen görevleri yerine getirme kabiliyetine sahip olması nedeniyle oluşacak potansiyel istihdam kayıpları. Bu durum, istihdamın geleceği ve işgücünün yeniden eğitilmesi ve yeniden vasıflandırılması ihtiyacı ile ilgili soruları gündeme getiriyor. Bir başka endişe ise, özellikle mahremiyet ve algoritma sebebiyle yapay zeka kaynaklı önyargıların doğurduğu etik sonuçlar.
İlgili açık mektubun asıl değindiği nokta ise ‘yapay genel zeka’ olarak adlandırılan süper zeki yapay zekanın doğurabileceği varoluşsal riskler. Bu sebepten pek çok uzman yapay zekanın insani değerler ve hedeflerle uyumlu kalmasının bir öncelik olmasını sağlamaya çalışıyor. Birçok uzman ise yapay zeka teknolojisinin varoluşsal bir tehdit oluşturmak için hala çok yeni olduğunu savunuyor ve uzun vadeli tehlikelerden ziyade önyargılı ve yanlış tepkiler gibi kısa vadeli sorunlardan endişe ediyorlar.
Önemli bir grup ise yapay zekanın son derece hızlı geliştiğini, bazı alanlarda insan düzeyindeki performansı çoktan aştığını ve yakında diğer alanlarda da aşacağını savunuyor. Buna göre birçok konuda insan düzeyinde performans gösterebilen veya onu aşabilen yapay genel zekanın geliştirilmesi yakında gerçekleşebilir. Bu uzmanlara göre yapay zeka, yavaşlatmak için bir şey yapılmazsa birkaç yıl içinde toplumsal ölçekte aksaklıklar yaratabilecek kadar güçlenebilir zira yukarıda bahsedilen konulara yeterince eğilmek için fırsat olmayacak. Bu korkular birçok yapay zeka uzmanı tarafından paylaşılıyor ve onları rakiplerinden daha hızlı inşa etmek için yarıştıkları bir teknolojinin ciddi riskler taşıdığını ve daha sıkı bir şekilde düzenlenmesi gerektiğini savunmak gibi zor bir konuma sokuyor.
Bu endişeye istinaden Mart ayında binden fazla teknoloji uzmanı ve araştırmacı, “çok daha güçlü dijital zekayı geliştirmek ve kullanmak için kontrolden çıkmış bir yarış” konusunda endişelerini dile getirerek büyük yapay zeka modellerinin geliştirilmesine altı ay ara verilmesi çağrısında bulunan bir açık mektuba imza atmıştı. Yaşamın Geleceği Enstitüsü tarafından organize edilen bu mektup Elon Musk ve tanınmış teknoloji liderleri tarafından imzalandı. Mektup, ChatGPT’nin temelini oluşturan teknolojinin güçlü bir versiyonu olan GPT-4‘un duyurulmasından iki hafta önce yayınlanmıştı. Mektupta, bu teknoloji yarışını yavaşlatma uygulamasının “GPT-4’ten daha güçlü” yapay zeka sistemleri için geçerli olması gerektiği belirtildi.
Mektupta, “Gelişmiş yapay zeka, yaşamın tarihinde derin bir değişimi temsil edebileceğinden bununla orantılı ilgi ve kaynaklarla planlanmalı ve yönetilmelidir” diyor ve ekliyordu: “Yapay zeka laboratuvarları, hiç kimsenin anlayamayacağı, tahmin edemeyeceği veya güvenilir bir şekilde kontrol edemeyeceği boyutta bir zekayı üretmek ve dağıtmak için kontrolden çıkmış bir yarışa kilitlenmişken, bu düzeyde bir planlama ve yönetim gerçekleşmiyor.” Mektupta, yakın zamanda bir duraklama yapılmazsa, hükümetlerin devreye girmesi ve bir moratoryum oluşturması gerektiği belirtiliyordu.
Daha yakın zamanda ise OpenAI’ın önde gelen teknoloji liderleri Sam Altman, Greg Brockman ve Ilya Sutskever konuya dair bakış açılarını bir makalede dile getirdi. Bu isimler makalede önümüzdeki on yıl içinde yapay zeka teknolojisinin çeşitli alanlarda insan yetkinliğine ulaşacağını ve muhtemelen aşacağını ve günümüzün en büyük şirketlerinin üretkenliğine rakip olacağını öngörüyor. Yazarlar, bu zeka devriminin getirdiği potansiyel riskleri vurguluyor ve risklerin bertaraf edilmesi için bir strateji öneriyor.
Buna göre öncelikle küresel yapay zeka liderleri arasında koordineli bir çabaya ihtiyaç var. Bu, yapay zekaya dair ilerlemelerin hızını denetleyen, güvenliğini ve toplumsal entegrasyonunu sağlayan yeni bir organizasyonun kurulması şeklinde sağlanabilir. Uluslararası Atom Enerjisi Ajansı formatı ile paralellikler kuran bu isimler, süper zeki yapay zekayı denetlemek için benzer bir küresel otorite öneriyor. Buna göre oluşturulacak kurum, yapay zeka sistemlerini denetlemek, güvenlik standartlarını uygulamak ve genel olarak riskleri yönetmekle görevli olacak.