Dijitalleşmenin hayatımızın her köşesine girdiği hatta girmekle kalmayıp hakim olmaya başladığı bir çağın içindeyiz. Bu çift yönlü ve çok boyutlu veri hareketi sadece verilerin bize akışı ve bizden dışarıya sızması anlamına gelmiyor, aynı zamanda bu veri akışını kullanan sistemlerin de hayatımızın her boyutuna girmesi hatta bizim için vazgeçilmez olmaya başlaması anlamına geliyor. Günlük hayatımızda, arama motorlarında aradığımız bir terim gibi ya da ailemizle afiyetle yiyeceğimiz bir yemeğin siparişi gibi; aldığımız birçok kararın alınma aşamasından gerçekleşme noktasına kadar içinden geçtiği yeni bir “zekâ” sistemler bütünü bizi çevreliyor. Bizim için endişe veriyor olsa da hayatımızı çevrelemeye başlayan bu yeni “zekâ” türü ekonomiden ulaşıma, bilişimden sağlığa bizim için biz farkında olsak da olmasak da kararlar alan ya da kararlarımızın isabetini artıran yardımcılar haline dönüşüyor. Bu yeni karar mekanizmaları, her ne kadar insan elinden çıksa da insan zekâsının bir ürünü olsa da bir cep telefonu, bilgisayar ya da sağlık alanında kullanılan bir sensör gibi her herhangi bir makinenin verilen bilgilerden hareketle bir karara varması işlemine, insan zekâsının doğal bir uzantısı olsa da yine de “yapay” zekâ diyoruz. 

Nick Bostrom, “Superintellience” adlı kitabında yapay zekâyı üç aşamalı bir spektrumda açıklıyor (1). Birincisi, “yapay dar zekâ.”  Yapay dar zekâ, bilgisayar algoritmalarını kullanarak belirlenen karar mekanizmaları içinde verilen bir işi optimum düzeyde yapmaya tasarlanmış sistemlerdir. Mesela, bir insanla satranç oynayabilen bir “yapay zekâ” bu kategoridedir (2). Böyle bir sistemde, sayısı milyonları hatta milyarları bulsa da kurallar ve kararlar kombinasyonları bellidir. Bu sistemde aslında “zekâ” ya hiç kullanılmaz ya da çok düşük düzeyde kullanılır. Bilgisayarlarımızdaki ve cep telefonlarımızdaki retina okuyucular da bu sistemin örneklerindendir çünkü sadece eşleştirme hedefli ve sadece bizim verimizi kullanan sistemlerdir.

Yapay zekânın ikinci seviyesini Bostrom “Yapay Genel Zekâ” olarak veriyor. Yapay Genel Zekâ, bir insanın kognitif ve akıl yürütme kabiliyetleriyle birebir eşleşme hedefli yeni bir zekâ düzeyidir. İnsanla karşılıklı konuşma yapabilen bir sistem bunun bir örneğidir (3). Bir insanın ses tonundan ya da anlattıklarından, o insanın üzgün olduğunu anlayıp “Her şey yoluna girecek!” şeklinde teselli edebilen bir sistem ya da konuşmacının şaka yaptığını anlayıp “Hadi oradan!” diyebilen ya da kişinin karakterine göre şaka yapabilen, birden fazla kişiden oluşan bir sohbet ortamında sohbete “bir insan gibi” dahil olabilen bir sistem bu zekâ düzeyinin sınırlarının genişliğini gösterir.

Yapay zekâ spektrumunun son aşaması da “Yapay Süper Zekâ”dır. Bu seviye basit anlamda, en az insan kadar iyi öğrenen ve insanların ortaklaşa (kollektif) akıl yürütme kapasitelerinin ötesine geçmeyi hedefleyen bir seviyedir. Aslında burası “Makine Öğrenmesi”yle “Derin Öğrenme”nin ayrıştığı noktadır ve bu nedenle de insanlar için daha rahatsızlık verecek bir alandır (4). Bunun sebebi de şüphesiz, insanın kendi zekâsından ve kapasitesinden daha ileri düzeyde kararlar veren böylesi bir sistemin bu kararlara nasıl ulaştığı konusundaki bilinmezliktir. “Görüntü tanıma” yapay zekâsını ele alalım. Bu karar sistemini, ideal olarak, milyonlarca örnek görüntüyle, hedeflediğimiz bir görüntü konusunda “eğitiriz” ve böylece yeni bir görüntü verdiğimizde, bu yeni görüntünün analiz sonucunu bekleriz. Son kararların güvenilirliğini artırmak için hem girdileri zenginleştirmemiz hem eğitim, test ve validasyon setlerini çok etkili bir şekilde planlayıp uygulamaya koymamız gerekir. Mesela yüzbinlerce hastanın demografik, klinik, medikal görüntüleme ve genetik verilerini kullanarak belli bir kanser tanısı koymayı hedefleyen bir “Yapay Süper Zekâ” sistemine, önce kanserli ve kansersiz hastaları temsil eden veri girdileriyle eğitim verilir, daha sonra benzer yapıda ama tamamen farklı veri kombinasyonuyla bu sistem test edilir ve sistemin doğru karar kabiliyeti validasyon setleriyle yeniden ölçülür. Bu anlamda bu sistemler, insan zekâsı gibi “yaşayan” sistemlerdir çünkü girdi setleri sürekli genişlemekte, karar sistemi sürekli öğrenmekte ve umut ederiz ki doğru karar verme ihtimalini sürekli artırmaktadır.

Bu yazıda da değindiğimiz, böylesi sistemlerin insan için rahatsızlık veren tarafı şudur: Ne doğru kararların neden doğru olduğunu ne de yanlış kararların neden yanlış olduğunu tam olarak bilebiliriz (5). Özellikle “sinir ağları” kullanıldığında, karar ağaçlarında oluğu gibi, ileriye ya da geriye doğru takip edebileceğimiz bir “dal” yoktur. Bu “denetimsiz öğrenme” algoritmalarında daha da zor hale gelmektedir (6). Her birimiz ilk hesap makinesi ya da bilgisayar kullanmaya başladığımız dönemler de öğretmenlerimize “Ama Öğretmenim, hesap makinem bu sonucu verdi!” demenin bizi kurtaramayan mahcubiyetini yaşamışızdır. Bu sebepten dolayı, her ne kadar bu sistemler açık ya da karmaşık algoritmalarla bize bir karar sunuyor olsa da bu kararın sorumluluğu yine uygulayıcı noktadaki insanın omuzlarına binecektir. Bir doktorun en azından şu an itibarıyla gözü kapalı olarak “Makine böyle dediği için şu bölgeye şu dozda radyoterapiye başlıyoruz” diyebilme rahatlığı ve lüksü henüz yoktur. Bunun temelde iki sebebi vardır: Birincisi, yapay zekâ sistemlerine girdi olan veriler, aslında böyle bir amaç için toplanmış veriler değildir ve bu da gelecekte kurulacak yapay zekâ sistemleri de hedeflenerek, veri akışının mevcut sistemlerde baştan planlanması anlamına gelmektedir. Hedefe uygun veriler olmadığı için bu yapay zekâ sistemlerinin “doğru karar” kabiliyetleri olması gereken düzeyin altında kalmaktadır.  İkincisi, yanlış kararların maliyeti sağlık alanında çok daha yüksektir ve yapay zekâ sistemlerinin kullanışlılığı daha çok pazarlama alanlarında örneklerle gösterilmiştir. “Yapay süper zekâ” sistemi bile olsa pazarlama olanında bir kişinin bir ürün için uygun müşteri olup olmadığını belirlenirken alınan yanlış kararla, bir hastanın klinik, medikal görüntüleme ve genetik verileri kullanılarak akciğer kanseri olup olmadığı konusundaki alınan yanlış bir karar hiçbir zaman aynı olmayacaktır. Bu da sağlık ekibimiz üzerindeki yükün devam edeceği gerçeğinin bir göstergesidir.

Bu yapay zekâ ürünleri, bir taraftan bizi bireysel veriden genele götürüp, pazarlamacılar için müşteri profilleri oluşturmamızda, bir toplumdaki hastalık profilleri belirlememizde, bir sistemdeki mali dolandırıcılık türlerini göstermemizde yardımcı olurken, diğer taraftan da bizi genelden bireye götürüp bireyselleştirilmiş tedavi yöntemleri oluşturmamızda yardımcı oluyorlar. İnsan olarak, bu yeni zekâ sistemlerine seviyesi ne olursa olsun “yardımcı zekâ” türleri olarak bakıp bu asistanları özellikle maliyetli kararlar alırken zekice kullanmanın yollarını bulmalıyız. Bunu gerçekleştirmek için öncelikle yapay zekâ sistemleri üreten araştırmacıların, bu sistemlerin son kullanıcılarının, bu “yapay karar mekanizmalarını” daha iyi anlayabilecekleri ve böylece bu sistemlere daha güvenebilecekleri açıklıkta sistemler üretmeleri gerekmektedir. Çünkü insan olarak üzerimizdeki sorumluluk duygusuyla, aldığımız kararlarda tam kontrolün bizde olmasını arzu ederiz ve bunda haklıyızdır da. Onun için şûra kültürünü şiar edinmiş bir gelenekten gelen insanlar olarak, kararlarımızda istişare ettiğimiz tüm katılımcıları -ki bu katılımcılar arasında yapay zekâ sistemlerinin ağırlığı giderek artmaktadır- çok iyi dinleyip dile getirdikleri noktaları ve bu noktalara ulaşma yollarına nasıl ulaştıklarını gerçekten tam olarak anlamamız gerekir ki aldığımız karar gerçekten bizim kararımız olsun.

Kaynaklar

1) Bostrom N. Superintelligence, Dunod; 2017 Oct 11.

2) Bringsjord S. Chess Is Too Easy. Technology Review. 1998;101(2):23-8.

3) Hagen D, Stefanik R, inventors; GATELINX CORP, assignee. Artificial Intelligence Dialogue Processor. United States Patent Application US 10/852,300. 2005 Jan 13.

4) Sotala K. How Feasible is The Rapid Development of Artificial Superintelligence? Physica Scripta. 2017 Oct 24;92(11):113001.

5) Kläs M, Vollmer AM. Uncertainty in Machine Learning Applications: A Practice-Driven Classification of Uncertainty. InInternational Conference on Computer Safety, Reliability, and Security 2018 Sep 18 (pp. 431-438). Springer, Cham.

6) London AJ. Artificial Intelligence and Black‐Box Medical Decisions: Accuracy Versus Explainability. Hastings Center Report. 2019 Jan;49(1):15-21.

SD (Sağlık Düşüncesi ve Tıp Kültürü) Dergisi Mart, Nisan, Mayıs 2021 tarihli 58. sayıda sayfa 6-7’de yayımlanmıştır.