Yapay zekada ikinci çağ erken başlayacak gibi...

Meta, gördüğümüz ya da duyduğumuz her şeye nasıl tepki vereceğinizi tahmin edebilen bir modeli açık kaynaklı makale olarak yayımladı. TRIBE v2 (TRansfomer for In-silico Brain Experiments), insan beyninin görme, duyma ve dil gibi karmaşık dış uyaranları nasıl işlediğini anlamak ve tahmin etmek için tasarlanmış devrim niteliğinde bir yapay zeka temel modelidir kendisi. Bu teknoloji, beynin dış dünyadan gelen bilgi akışına verdiği tepkileri bilgisayar ortamında hesaplayarak adeta bir "dijital ikiz" görevi görüyor. TRIBE v2, daha şimdiden nörobilim alanında devasa bir veri kümesi üzerine inşa edilmiş bir model yaratmış. Model, 720'den fazla sağlıklı gönüllünün; film izlerken, kitap okurken ve podcast dinlerken kaydedilen 1000 saati aşkın fMRI verisi ile eğitilmiş. Bu süreçte araştırmacılar, beynin tamamındaki 70.000 veri noktasını (voksel) kullanarak gerçek dünyayı işlerken, insan beyninde tam olarak neler olduğunu tahmin edebilen bir model ortaya çıkarmışlar.

Model, günümüzdeki popüler büyük dil modellerinin (GPT-4 gibi) temelini oluşturan Transformer mimarisini kullanıyor. Model yapısı da teknik olarak üç ana aşamadan oluşuyor;
Üç Modlu Kodlama (Ses, video ve metin verileri aynı anda işlenir.), Evrensel Entegrasyon
(Farklı uyaranlar ve bireyler arasındaki ortak temsiller öğrenilir.), Beyin Haritalama (veriler 70.000 voksel üzerinden fMRI verilerine dönüştürülür.)
Önceki versiyon olan TRIBE v1 sadece 1.000 kortikal tahmin yürütebilirken, v2 sürümü ile 70 katlık bir çözünürlük artışı sağlanmış. Bu yüksek çözünürlük, beynin fısıldanan bir kelime ile gürültülü bir sesi veya hareketli bir nesne ile durağan bir manzarayı nasıl farklı kodladığını en ince detayına kadar görmeyi sağlıyor. Ayrıca modelin en dikkat çekici özelliklerinden biri ve bence ürkütücü özelliği, "Sıfır Örnekli Öğrenme" (Zero-Shot Capability) sayesinde, beyni daha önce hiç taranmamış kişilerde veya eğitilmediği dillerde bile beyin tepkilerini yeniden eğitime ihtiyaç duymadan tahmin edebilir olması. Yani model hiç taranmamış beyinlerde de çalışıyor…
TRIBE v2, nörobilim dünyasında "In-Silico Nörobilim" dönemini başlatıyor. Bu durumun sağladığı temel avantajları da şu şekilde sıralamışlar; Zaman ve Maliyet Tasarrufu (Geleneksel yöntemlerle aylar süren laboratuvar çalışmaları, bilgisayar simülasyonları sayesinde saniyelere iner ve maliyetli fMRI seanslarına olan ihtiyacı azalır.) Tıp alanında gelişmeleri hızlandıracak (Konuşma bozukluğu veya duyusal işleme sorunları gibi nörolojik bozuklukların tedavisinde ve gelişmiş beyin-bilgisayar arayüzlerinin (BCI) tasarlanmasında kritik rol oynaması beklenmektedir.) Yapay Zekanın Gelişimi (İnsan beyninin verimliliğini esas alan yeni yapay zeka mimarilerinin geliştirilmesine rehberlik edebilir.)

Peki bu makale neden bu kadar önemli? 2017 yılında Google’ın yayımladığı Attention Is All You Need (Dikkat ihtiyacınız olan tek şey) isimli ve yapay zekanın temellerinin atıldığı transformer mimarisini tanıttığı makale, birçok kişinin dikkatinden kaçmıştı. Bu makaleyi Chat Gpt, Gemini, Claude gibi yapay zeka mimarisinin içerisinde çalışanlar dikkate almış ve sonuçta trilyon dolarlık şirketler ortaya çıkmıştı. TRİBE v2 de bu makalenin çok benzeri bir şeyi yapıyor ve işi bir adım daha ileriye götürüyor. Makaledeki modeli alıp giyilebilir bir cihaza bizim gördüğümüzü gören, duyduğumuzu duyan, hayatımızı kaydeden bir cihaza yerleştiren kişi, beynimizin bunu nasıl işlediğini nihayetinde anlayacaktır. TRIBE v2 tıpkı Google'ın makalesinin yaptığı gibi, yapay zekanın sadece verileri değil, bilişsel süreçleri de anladığı yeni bir endüstrinin kapılarını aralıyor.

Çok değil yakın bir zamanda yapay zeka alanında kartlar yeniden dağıtılacak…