Güneri Cıvaoğlu

Güneri Cıvaoğlu

ngunericivaoglu@gmail.com

Tüm Yazıları

DeepAI kurucusu Kevin Baragona İngiliz “Daly Mail” gazetesine çok da uzak olmayan bir gelecekte “artık kontrolden çıkacak yapay zekânın, insanlar üzerinde egemen olabileceği” kaygısını dile getirdi. 

“Bu durum neredeyse insanlarla şempanzeler arasındaki bugünkü ilişkiye benzeyecek” dedi. 

Tüyler ürpertici ön görüsünü şöyle sürdürdü… 

“Şempanzelerden çok daha akıllı olduğumuz ve onları yenmek için daha ileri teknolojiden yararlanabildiğimiz için insanlar kazanabiliyor. 

Yapay zeka karşısında şempanzeler gibi olursak, yapay zeka bizi yok edecek ya da biz onun kölesi olacağız.”  

Haberin Devamı

RUBİCON 

Bu konuda bir önceki “yapay zekâ ve Rubicon” başlıklı yazımda “kırmızı çizgiye” işaret etmiştim. 

BM Genel Sekreteri Guterres son BM Genel Kurulu’nda “yapay zekânın çok büyük süratle geliştiğine” işaret etmişti. 

“Rubicon’u geçmeden, küresel bir yasal düzenlemeyle insanoğlunun kontrolüne kesinlik kazandırılmalıdır. Bir çalışma grubuyla gelecek yılki liderler toplantısına küresel yasa tasarısını sunmak çabasındayım” açıklamasını yapmıştı. 

“Rubicon” Kuzey İtalya’da bir nehrin adıdır. 

Galya seferinden zaferle dönen Komutan Jul Sezar’ın “Cumhuriyeti yıkıp kendi imparatorluğunu ilan etmesi olasılığından” kaygı duyan Senato Jul Sezar’a “Rubicon nehrini geçmeden ordularını orada bırakması ve sembolik sayıda askerle Roma’ya gelmesi” çağrısında bulunmuştu. 

Jul Sezar bu çağrıya kulak asmamış tüm kuvvetleriyle birlikte Rubicon nehrini geçerek Roma’ya gitmişti. 

Cumhuriyeti yıkmış, kendini imparator ilan etmişti. 

Rubicon nehrini geçerken “ok yaydan çıktı artık” anlamında “zarlar atıldı” demişti. 

O zamandan bu yana “Rubicon’u geçmek” dünya dillerine yerleşmiştir. 

“Artık geri dönüşü mümkün olmayan durumu” ifade eder. 

Yapay zekâ ve maymun insanlar

NEFRET EDEN YAPAY ZEK 

Silikon Vadisinde yapay zekâ konusunda bir iç savaş patlamış durumda.  

Bir tarafta yapay zekâ çalışmalarının “Rubicon’u geçmeden durdurulması” görüşünde olanlar. 

Bu blokun başını çeken kanaat önderleri Elon Musk ve Apple’nin kurucularından Steve Wozniac... 

Dünyanın en önemli beyinlerinden biri olarak gösterilen Stephen Hawking de bu görüşteydi. 

Haberin Devamı

Hawking 2014’te BBC’ye “tam yapay zekanın gelişimi, insan ırkının sonunu getirebilir” demişti. 

Musk ise “şeytanı çağırmak” metaforunu yapmıştı. 

DeepAI’in kurucusu Kewin Baragona’nın da “Rubicon geçilirse yapay zeka karşısında insanların şempanzeleşeceği” kaygısını yukarıda yansıtmıştım. 

Bu kanaat önderlerine göre “yapay zeka, insanlardan nefret eden bağımsız bir tür haline gelmeden, insanlar kontrolü kaybetmeden daha ciddi, derin ve kapsamlı risk değerlendirmesi yapılmalı, yapay zeka için yarış durdurulmalıdır.” 

Onlar bir de çok imzalı bildiri yayınladılar. 

İNSANLIĞIN GELECEĞİ 

Başını Microsoft’un kurucusu Bill Gates’in ve Google’nin CEO’su Sundar Pichai ile Fütürist Rray Kurzweil’ın çektiği diğer blok ise “yapay zeka çalışmalarına tam gaz devam” diyorlar. 

Onlara göre yapay zeka “geleceğin anahtarı…” 

Her salgını anında önleyebilecek aşı formülünün bulunması, dünyada eşitsizliğin azalması, kanserin tedavi edilmesi, felçlilerin -daha şimdiden- yürütülebilmesi, iklim değişikliği sorunun üstesinden gelinebilmesi, küresel üretkenliğin arttırılması (ilk aşamada yüzde 7) gibi pek çok önemli konuda yapay zeka “uygarlığın büyük devrimidir.” 

Haberin Devamı

OpenAI’nın ChatGPT’si Kasım 2022’de devreye girmesinden bu yana çok tutuldu. 

“Yapay asistan” haline geldi. 

Yapay zekâ ve maymun insanlar

1970’DEN 2045’E  

Yapay zeka alanında öncü bilim adamlarınızdan Marvin Minsky 1970’de LİFE Magazine “3-8 yıl arasında ortalama insan zekasına sahip bir makinemiz olacak” demişti. 

2022’de ChatGPT Amerika’da Baro sınavlarını diğerlerinin yüzde 80 daha üstünde puanla geçti. 

Tıp lisans sınavında yüzde 60 doğru cevap verdi. 

Bu sonuçlarla alarm zilleri çaldı. 

1000’den fazla Slikon Vadisi Teknoloji Uzmanı “2045 yılına kadar, yapay zeka egemenliğine varılabileceği” kaygısını açıklamış bulunuyor. 

Ama önce yapay zeka “Turing testini” geçmeli. 

Yani… 

“Bağımsız zeka olduğunun ve insanların kontrol edemeyeceği daha da güçlü bir sisteme kendini kopyalama aşamasına geldiğinin” bu testle saptanması… 

FİLLER VE ÇİMENLER 

2001’de Slikon Vadisi’nden bir grup parlak mühendis “para kazanmaya odaklı” eleştirisiyle OpenAI terk etmişti. 

Bunun yerine “kar amaçlı olmayan sorumlu yapay zekaya” odaklanmış “Antrophic’ı” kurdular. 

Ve… 

Yakınlarda “Amazon’la 4 milyar dolarlık bir anlaşma yaptıklarını” duyurdular. 

Oysa… 

Şubat ayında da “Google ile aynı amaçlı ve kapsamlı” bir anlaşma yapmışlardı. 

Çünkü… 

Bilgi işlem gücüne doyumu limitsiz ihtiyaçları var. 

StartUp’ların Big Tech’in bilgisayar çiplerinden oluşan hiper depolarından beslenmeleri gerekiyor. 

Yapay zeka robotlarının arkasındaki karmaşık algoritmaların eğitilmesi için bu veri nehri gerekli. 

Ve… 

Bu nehrin kaynakları olan Amazon, Google ve Microsoft’ta, pazar üzerinde muazzam hakimiyet sunuluyor. 

Antrophic gibi yeniler (StartUp) çağ açıcı teknolojiler kullansalar da hala Big Tech’in parasına ve bulut bilişim kaynaklarına muhtaç. 

Üretken yapay zeka sistemlerini eğitmek çok pahalı. 

Önce trilyonlarca kelime ve görselin üzerinden geçmeleri gerekiyor. 

Yapay zeka patlaması Slikon Vadisi stratosferine yeni bir StartUp fırlatma potansiyeli taşıyan teknolojilerde “son devrim…” 

Bu görüntü Big Tech şirketlerinin fillere benzetildiği ve alandaki StartUp’ların çoğunun fillerin çiğnediği çimler gibi olduğu algılanmakta. 

KÜRESEL YASALAR 

Amerikan yasama Meclis’lerine şimdiden yapay zekanın yararları ve olası felaket senaryoları konusunda, basına ve izleyicilere kapalı seminerler düzenlendiğini belirteyim. 

ABD’de yasal düzenleme hazırlıkları yoğunlaşmış bulunuyor. 

AB de bu konuda bir çalışma grubu oluşturdu. 

Bir diğer tehlike ise yapay zeka ileri teknolojisinin sadece birkaç şirket ya da kişinin elinde olması ihtimali. 

Hem bu “nükleer silah” gibi güçlü yapay zekanın birkaç kişinin tekerine kalması, hem de kötü niyetle kullanılma olasılığı, insanlığın geleceğine dönük mega soru işaretleri…