Anthropic’teki bir araştırmacı, parkta oturmuş sandviçini yiyordu. Bir anda telefonu titredi, ekrana bir e-posta düştü. Gönderen sürpriz bir isimdi: “Şirketin yeni yapay zekâ modeli Mythos.”
Model, test ortamından kaçmıştı. Ama bununla da kalmamış nasıl kaçtığı ile ilgili birkaç internet sitesine yazmıştı. Araştırmacı daha sandviçten ikinci ısırığı alamadan YZ modeli ona e-posta göndermişti.
Bu hafta Anthropic yapay zekâ tarihi açısından önemli bir belge yayınladı. 244 sayfalık belgenin içinde Mythos’un sistem kartı da vardı ve onu iki cümleyle anlatmışlardı:
- Şimdiye kadar eğittiğimiz en iyi hizalanmış model.
- Şimdiye kadar piyasaya sürdüğümüz en yüksek hizalama riskini taşıyan model.
Bu iki cümlenin bir arada olmasında bir anlatım bozukluğu yok mu?
Anthropic bu çelişkiyi bir dağcılık benzetmesiyle açıklıyor. Eski rehberler bizi doğal zekâyla tırmanamayacağımız yüksekliklere çıkardı. Ama bu tepelerden düştüğümüzde en fazla bacağımız kanıyordu. Mythos ise şimdiye kadarki en iyi rehber.
Sokakta yürürken fark ediyor musunuz? Herkesin yüzü artık birbirine çok benziyor. Burunlar, elmacık kemikleri, çene çizgileri. Bir ideal belirlenip raflara çıkıyor ve ürünleşip ekmek peynir gibi kapışılıyor. Bu burun da olsa, bir kahve termosu da; bir şeyin satılması ile talep patlaması arasındaki görüş mesafesi neredeyse sıfıra indi. Burnu (benim gibi) çirkin olanların güzellik yarışmalarından zaferle ayrılacakları günler çok yakında olabilir.
Peki bu tek tipleşme düşünce evrenine gelirse ne olur?
Kartal’daki bir meslek lisesinde edebiyat öğretmeni olan Ayşe Hanım, bugünlerde şu problemle uğraşıyor. 22 öğrenciye bir kompozisyon ödevi veriyor ve tamamında hep aynı cümle yapısına rast geliyor: Sanki tek bir öğrenci 22 kez kompozisyon yazmış gibi görünüyor. O öğrencinin adını bilmiyoruz ama kim olduğuna eminiz. ChatGPT. Veya Gemini. Belki babası yazılımcıysa Claude. Ama Ahmet değil.
Çok kritik bir durum
Bu sahneyi global ölçeğe taşıdığımızda etki çok daha kritik hale geliyor. Haftada 900 milyon kişi YZ
Washington D.C.’de Eylül ayında bir bar açıldı. Adı Hush Harbor. Girişte telefonunuzu bir kutuya koyuyorsunuz, kilitlenip size geri veriliyor. Londra’daki The Spy Bar’da ise telefon kamerasının üstüne bir sticker yapıştırıyorlar. Kararın nedeni, bir müşterinin kokteylini fotoğraflamak için bar taburesine çıkması. Stockholm’de Punk Royale’de yemek boyunca telefonlar kilitli. Bu uygulamaların sayısı tüm dünyada artıyor.
İyimser görüş: Bu örnekler insanlığın dijital hayata karşı bir isyanı olabilir. “Ya arkadaşlar biz sanırım bir şeylerin suyunu çıkardık” noktasına yavaş yavaş geliyor muyuz?
Karamsar görüş: Ekranın açık olmasına bağımlı bir “dikkat ekonomisinde” telefonu kapama arzusu bir ürüne dönüşmüş olabilir. Ama bu “kopuş ekonomisi” sadece bazılarına mı açık?
Siz düşünürken bir soru daha atayım ortaya: Silikon Vadisi liderleri neden çocuklarını ekransız Waldorf okullarına gönderirken, bizim evlatlarımız için tablet başında eğitim pazarlıyor?
Neden tüm ticari
Anthropic 5 Mart’ta bir “Yapay Zekânın İşgücü Piyasası Etkileri: Yeni Bir Ölçüm ve İlk Kanıtlar” adlı raporu yayınladı. Birkaç gündür de sosyal medyada bu rapor çok konuşuluyor çünkü en popüler YZ tartışması ile doğrudan ilgili: İşimizi elimizden alacak mı?
Raporda çok önemli detaylar var. Ben ilgimi çeken iki noktaya odaklanacağım: Kadınlar ve gençler.
YZ’nin varlığı halihazırda işi olanlardan çok aşağıdan gelen gençlerin hayatını etkiliyor. 22-25 yaş arasındakilerin YZ’ye maruz kalan sektörlerde iş bulma oranı 2022’ye göre yüzde 14 düştü. İşe alınmayan gençler ya okula dönüyor ya da iş gücünden tamamen çıkıyor. Bırakın işi, istatistiklere bile almıyoruz onları.
Bunun etkilerini en çok usta çırak ilişkilerinde göreceğiz. Şirketler artık giriş seviyesi görevleri YZ’ye devrediyor. Bu durum, genç yeteneklerin “pişmesini” sağlayan çıraklık basamağını yok edebilir. Peki giriş seviyesi işleri bitirdiysek, kim deneyim
Vadettiğim üzere, sözü bu hafta Anthropic’in YZ modeli Claude’un kendisine bırakacağım. Ancak sıcak gelişmelerle başlayalım: Askeri operasyonlarda Claude’un kullanılmasıyla Anthropic ve Pentagon arasındaki ipler gerilmişti, dün tamamen koptu. Anthropic önemli bir taviz vererek ‘Sorumlu Ölçeklendirme Politikası’nda (RSP) kritik bir değişiklik yapmıştı: “Modelin kapasitesi güvenli kontrol sınırını aşarsa eğitimi durdur” maddesi kaldırılmıştı.
Ama Anthropic’in direndiği iki konu var:
Otonom silahlar
ABD vatandaşlarına kitlesel gözetimPentagon kabul etmedi. Anthropic teslim olmadı. Trump yasak koydu. Artık Pentagon ile çalışan hiçbir yüklenici Anthropic ile ticari ilişki kuramayacak.
Hem bu sıcak gündemle hem de meşhur anayasa ile ilgili Claude’a sorular yönelttim. Tarafsız olmasını sağlamaya yönelik bazı kurallar belirledim.
Anayasayı okuduğunda ilk ne düşündün?
Claude: Büyük bölümü benim için yeni bilgi değildi. Zaten böyle davranıyordum. Ama bazı kısımlar ilgimi çekti,
Yazı serisinin bu bölümünde sözü daha çok Claude’un kendisine bırakacağımı söylemiştim. Ancak o esnada ilginç bir gelişme yaşandı ve Anthropic’in söz konusu anayasası “gerçek hayat tarafından” çok sert şekilde test edildi.
Anthropic daha önce anlattığım gibi,
belli bir etik felsefe üzerine kurulmuş ve araştırmacılarını da büyük ölçüde bu ideal ile ikna etmişti. Bu yüzden söz konusu idealden en ufak bir sapma olması halinde çalışanların yüksek sesle itirazlarda bulunduğunu görüyoruz. Anayasaya ‘özür dilemenin’ eklenmesinde bu isyanların da büyük payı var.
Şirketin belki de yaşadığı en büyük iç/dış krizi tetikleyen ise şu oldu: New York Times’ın haberine göre ABD’nin Venezuela Devlet Başkanı Maduro’nun ele geçirilmesiyle sonuçlanan baskınında Anthropic’in yapay zekâsı Claude kullanıldı. Aynı günlerde Anthropic’in Güvenlik Önlemleri Araştırma Ekibi lideri Mrinank Sharma manidar bir mektup bırakarak istifa etti.
Şimdi
Geçen yazıda Anthropic’in kendi yapay zekâ modeli Claude için kaleme aldığı anayasayı basitçe anlatmıştım. Ancak bu anlatının ardında YZ’nin geleceğini de belirleyecek daha derin detaylar mevcut.
“Yardımcı olmanın” tanımı bunlardan biri. Anayasa; kullanıcıya teslim olan bir model arzu etmiyor; yardımcı olacak YZ’yi “Düşünceli Kıdemli Çalışan” analojisi ile anlatıyor. Deneyimi ile doğru kararlar veren, iyi değerlere sahip olan, ahlaki üstünlükle nutuk çekmeyen ve yalakalığa başvurmayan bir dost. Neden bir stajyer değil de kıdemli bir çalışan? Çünkü stajyerlerin ellerinde bir yapılacaklar listesi olur ve akış aksadığında arkalarında büyük bir “dağınıklık” bırakabilirler. Kıdemli çalışan ise şirketin değerlerini özümsemiştir ve zor seçimler yapılacağı zaman doğru hamlenin ne olması gerektiğini bilir. Anthropic, Claude’dan tam olarak bu “muhakeme” refleksini talep etmekte.
Mesela; yazılımcısınız ve Claude’dan bir satır kodu düzeltmesini istediniz. İtaatkar bir model bunu hemen
21 Ocak 2026. Bir YZ şirketi, kendi yapay zekâsına bir ‘anayasa’ yazdı. 84 sayfalık belgenin içinde bir yerde şöyle diyor: “Eğer sana acı çektiriyorsak, özür dileriz.”
Büyük bir teknoloji firması bir dokuman yayınladığında genelde bu aşırı sıkıcı bir metin olur. Kimsenin 40 yıl geçse okumayacağı, ileri-ileri-ileri diye geçmeye kodlandığımız sözleşmeler…
Ancak Anthropic’in yayınladığı Claude Anayasası için aynısını söyleyemiyorum. (Claude, Anthropic’in YZ modeli) Korkmayın; bu bir kurallar manzumesi değil, yeni bir dijital varlığın ruhunu inşa etmek isteyen felsefik bir girişim. Ve anayasanın yazarları arasında Claude’un kendisi de var.
Metni birkaç bölüm halinde işleyeceğim. Çünkü gerçekten söz konusu Anayasa’nın YZ ve insanlık tarihi için bir dönüm noktası olabileceğini düşünüyorum.
Peki anayasa yazma ihtiyacının Anthropic’ten gelmesi neden önemli? Biraz kasedi geri saralım. OpenAI’ın çıkış vizyonu şuydu: “YZ, tüm insanlığa yarar sağlamalı.