OpenAI, yapay zeka alanında bir devrim yapmış olsa da, yaptığı bir açıklamada teknolojinin nasıl işlediğini tam olarak anlamadıklarını söyledi.
Geçtiğimiz günlerde yayınlanan bir makalede, OpenAI, GPT-4 dil modelini kullanarak GPT-2 modelindeki nöronların davranışları için açıklamalar yazmak üzere bir teknik detayları paylaştı. Bu teknik ile sinir ağlarının çıktılarının nasıl üretildiği açıklanmaya çalışılıyor.
Büyük dil modelleri (LLM) hala gizemini korurken, yapay zeka araştırmacıları ne işe yaradıkları hakkında çok az şey biliyorlar. OpenAI, yayınladıkları makalenin başında “Dil modelleri daha yetenekli hale geldi ve daha yaygın olarak kullanılmaya başlandı, ancak nasıl çalıştıklarını tam olarak anlamıyoruz” diyerek açıkça itiraf ediyor.
Bazıları için bu ifade, LLM’lerin gelirleri üzerinde etkisi olduğu kadar insanüstü bir düzeye ulaşmayı hedefleyen bir şirketin çarpıcı bir itirafı gibi gelebilir.
Ancak, sinir ağlarının bireysel nöronlarının nasıl bir araya geldiği ve çıktılarını nasıl ürettiği hala “kara kutu” olarak bilinir. Yani, yapay zeka sistemlerinden bir cevap istediğimizde, onlar cevap verirler, ancak bu süreçte ne olduğu tam olarak bilinemez.
OpenAI araştırmacıları, GPT-4 dil modelini kullanarak, GPT-2 modelindeki nöronların davranışları için doğal dil açıklamaları oluşturarak bu “kara kutunun” içine bakmayı amaçlıyorlar. Bu, yorumlanabilir bir AI modeline sahip olmanın, bu sistemlerin istenildiği gibi çalışmasına yardımcı olabileceği teorisini destekliyor.
Çalışma şekilleri anlaşılabilirse eksiklikleri giderilebilir
Beyinde 100 milyar nöron bulunduğu bilinmektedir. Bir sinir ağında, nöron bilgi alır, işler ve bir çıktı üretir. OpenAI, yapay zeka nöronlarının çalışma şeklini anlamaya çalışıyor ancak en gelişmiş yapay zeka modellerinden olan GPT-4 bile nöronları yorumlamakta zayıf kalıyor gibi görünüyor.
OpenAI araştırmacıları, yapay zeka modelleri daha gelişmiş hale geldikçe, üretilen açıklamaların kalitesinin artacağını ve bu karmaşık sistemlerin iç işleyişine dair daha iyi bilgiler sunacağını umuyor. Firma, araştırma makalesini etkileşimli bir web sitesinde yayınlayarak her adımın örnek dökümlerini içeriyor, metnin vurgulanan kısımlarını ve bunların belirli nöronlara nasıl karşılık geldiğini gösteriyor. Bu konuda çalışmalarına devam edeceklerini belirtiyorlar.
Eğer “yorumlanabilirlik” alanında başarı sağlanırsa, ChatGPT ve diğer yapay zeka modelleri neden bir şeyler uydurduğunu anlayabilir ve bu kritik sorun çözülebilir. Bu, bir hastanın hastaneye gitmesi ve muayene olması gibi bir süreçtir. Bir sorun olduğunda, muayene edilir ve teşhis konulur. Şimdilik yapay zeka modelleri tam doğrulukla muayene edilemiyor.