Açıklanabilir Yapay Zeka (XAI): Şeffaflık ve Güven İçin Teknik Yaklaşımlar

Featured image

Giriş

Modern yapay zeka (AI) sistemleri, özellikle derin öğrenme modelleri, karmaşık görevlerde insanüstü performans sergilemektedir. Ancak bu modellerin iç işleyişleri genellikle bir “kara kutu” olarak kalmakta, yani kararlarını nasıl aldıkları tam olarak anlaşılamamaktadır. Bu durum, özellikle yüksek riskli uygulamalarda (sağlık, finans, otonom sistemler vb.) güven, hesap verebilirlik ve etik endişeleri beraberinde getirmektedir. Açıklanabilir Yapay Zeka (Explainable AI - XAI), bu “kara kutu” sorununu çözmeyi amaçlayan, AI modellerinin çıktılarını ve iç mekanizmalarını insanlar tarafından anlaşılır ve yorumlanabilir hale getiren bir araştırma alanıdır.

XAI’ye Duyulan İhtiyaç

AI sistemlerinin yaygınlaşmasıyla birlikte, bu sistemlerin kararlarının nedenlerini anlamak giderek daha kritik hale gelmektedir. XAI’ye duyulan ihtiyaç başlıca şu faktörlerden kaynaklanmaktadır:

Bu ihtiyaçlar doğrultusunda, XAI, AI araştırmalarının ve uygulamalarının ayrılmaz bir parçası haline gelmiştir. Bir sonraki bölümde, XAI alanındaki önde gelen teknik yaklaşımlardan bazılarını inceleyeceğiz.

XAI Teknikleri: LIME ve SHAP

XAI Konsepti

XAI alanında, modellerin yorumlanabilirliğini artırmak için çeşitli teknikler geliştirilmiştir. Bu teknikler genel olarak iki kategoriye ayrılabilir: model-spesifik ve model-agnostik. Model-spesifik yöntemler, belirli bir model türü (örneğin, karar ağaçları) için tasarlanmışken, model-agnostik yöntemler herhangi bir makine öğrenimi modeline uygulanabilir. Bu bölümde, en popüler model-agnostik yöntemlerden ikisi olan LIME ve SHAP’ı detaylı olarak inceleyeceğiz.

LIME (Local Interpretable Model-agnostic Explanations)

LIME, herhangi bir “kara kutu” modelinin tahminlerini yerel olarak açıklamak için geliştirilmiş bir tekniktir. LIME’ın temel fikri, açıklanmak istenen bir tahminin etrafında, yerel olarak yorumlanabilir bir model (örneğin, doğrusal bir model veya karar ağacı) oluşturmaktır. Bu sayede, karmaşık modelin yerel davranışını daha basit ve anlaşılır bir modelle yaklaşık olarak ifade eder.

LIME’ın çalışma adımları şu şekildedir:

  1. Veri Örneklemesi: Açıklanmak istenen veri noktasının etrafında, bu noktaya yakın yeni veri örnekleri oluşturulur. Bu, orijinal veri noktasının özellik değerlerini küçük değişikliklerle pertürbe ederek yapılır.
  2. Tahminlerin Alınması: Oluşturulan yeni veri örnekleri, orijinal “kara kutu” modeline verilerek tahminler elde edilir.
  3. Ağırlıklandırma: Yeni veri örnekleri, orijinal veri noktasına olan yakınlıklarına göre ağırlıklandırılır. Orijinal noktaya daha yakın olan örneklere daha yüksek ağırlık verilir.
  4. Yorumlanabilir Modelin Eğitilmesi: Ağırlıklandırılmış yeni veri örnekleri ve bu örneklere karşılık gelen “kara kutu” modelinin tahminleri kullanılarak, yorumlanabilir bir model (genellikle doğrusal bir model) eğitilir.
  5. Açıklamanın Elde Edilmesi: Eğitilen yorumlanabilir modelin katsayıları, orijinal veri noktasının tahminine hangi özelliklerin ne kadar katkıda bulunduğunu gösteren bir açıklama olarak kullanılır.

LIME’ın en büyük avantajı, model-agnostik olması ve hem metin hem de görüntü verileri gibi farklı veri türlerine uygulanabilmesidir. Ancak, yerel açıklamalar sağladığı için modelin genel davranışını tam olarak yansıtmayabilir ve pertürbasyon stratejisinin seçimi sonuçları etkileyebilir.

SHAP (SHapley Additive exPlanations)

SHAP, oyun teorisindeki Shapley değerleri kavramını temel alan bir XAI yöntemidir. Shapley değerleri, bir grup oyuncunun işbirliğiyle elde edilen toplam kazancın, her bir oyuncuya adil bir şekilde nasıl dağıtılacağını hesaplamak için kullanılır. SHAP, bu kavramı makine öğrenimi modellerine uyarlayarak, bir tahminin her bir özelliğe olan katkısını hesaplar.

SHAP’ın temel prensibi, bir özelliğin modele olan katkısını, o özelliğin dahil olduğu ve olmadığı tüm olası özellik kombinasyonlarının tahminleri arasındaki farkı alarak ölçmektir. Bu, her bir özelliğin modele olan marjinal katkısını adil bir şekilde hesaplamayı sağlar.

SHAP’ın temel özellikleri şunlardır:

SHAP, LIME’a göre daha sağlam teorik temellere sahip olması ve hem yerel hem de global açıklamalar sunması nedeniyle genellikle tercih edilen bir yöntemdir. Ancak, hesaplama maliyeti LIME’a göre daha yüksek olabilir, özellikle büyük veri kümeleri ve karmaşık modeller için.

LIME ve SHAP Karşılaştırması

Özellik LIME SHAP
Yaklaşım Yerel pertürbasyon ve vekil model Shapley değerleri ve koalisyonel oyun teorisi
Yorumlanabilirlik Yerel Yerel ve Global
Teorik Temel Heuristik Sağlam (Shapley değerleri)
Hesaplama Maliyeti Düşük Yüksek
Tutarlılık Düşük Yüksek
Uygulama Alanı Herhangi bir model (model-agnostik) Herhangi bir model (model-agnostik)

Bu iki güçlü teknik, AI modellerinin şeffaflığını artırmada önemli bir rol oynamaktadır. Bir sonraki bölümde, XAI’nin pratik uygulama alanlarını ve karşılaştığı zorlukları ele alacağız.

XAI’nin Pratik Uygulama Alanları

XAI, çeşitli sektörlerde ve disiplinlerde, AI sistemlerinin güvenilirliğini ve kabul edilebilirliğini artırmak için kritik bir rol oynamaktadır. İşte bazı önemli uygulama alanları:

1. Sağlık Sektörü

Sağlık sektöründe AI, hastalık teşhisi, tedavi planlaması ve ilaç keşfi gibi alanlarda giderek daha fazla kullanılmaktadır. Bu alanda XAI, doktorların ve hastaların AI destekli kararlara güvenmesini sağlamak için hayati öneme sahiptir. Örneğin, bir AI modeli bir hastaya belirli bir teşhis koyduğunda, XAI teknikleri bu teşhise yol açan ana faktörleri (örneğin, belirli semptomlar, laboratuvar sonuçları veya görüntüleme bulguları) açıklayabilir. Bu, doktorların kararı doğrulamasına, potansiyel hataları tespit etmesine ve hastalarla daha şeffaf bir iletişim kurmasına olanak tanır.

2. Finans Sektörü

Finans sektöründe AI, kredi değerlendirmesi, dolandırıcılık tespiti, algoritmik ticaret ve risk yönetimi gibi alanlarda yaygın olarak kullanılmaktadır. Bu uygulamalarda AI kararlarının açıklanabilirliği, hem düzenleyici uyumluluk hem de müşteri güveni açısından büyük önem taşır. Bir banka, bir müşterinin kredi başvurusunu reddettiğinde, XAI, bu kararın nedenini (örneğin, düşük kredi puanı, yüksek borç oranı veya düzensiz gelir) açıklayarak müşterinin itiraz hakkını kullanmasına veya finansal durumunu iyileştirmesine yardımcı olabilir. Ayrıca, dolandırıcılık tespit sistemlerinde, XAI, şüpheli işlemlerin neden dolandırıcılık olarak işaretlendiğini açıklayarak analistlerin soruşturmalarını hızlandırır.

3. Hukuk ve Adalet Sistemi

Hukuk alanında AI, dava sonuçlarını tahmin etme, yasal belgeleri analiz etme ve suç riskini değerlendirme gibi konularda potansiyel sunmaktadır. Bu alanda AI kararlarının açıklanabilirliği, adil yargılama ve insan hakları açısından temel bir gerekliliktir. Bir AI sistemi, bir sanığın yeniden suç işleme riskini değerlendirdiğinde, XAI, bu değerlendirmeye yol açan faktörleri (örneğin, önceki suç kayıtları, sosyal çevre veya rehabilitasyon geçmişi) açıklayarak kararın şeffaflığını sağlar. Bu, yargıçların ve avukatların AI destekli önerileri daha iyi anlamasına ve adil kararlar almasına yardımcı olur.

4. Otonom Sistemler ve Robotik

Sürücüsüz araçlar, insansız hava araçları ve endüstriyel robotlar gibi otonom sistemler, karmaşık ortamlarda bağımsız kararlar almaktadır. Bu sistemlerin güvenli ve güvenilir bir şekilde çalışması için, beklenmedik durumlarla karşılaştıklarında veya hata yaptıklarında kararlarının açıklanabilir olması kritik öneme sahiptir. Örneğin, bir sürücüsüz araç bir kaza yaptığında, XAI, kazaya yol açan faktörleri (örneğin, sensör verileri, algılama hataları veya karar verme algoritmasındaki bir zayıflık) analiz ederek gelecekteki kazaların önlenmesine yardımcı olabilir.

5. Siber Güvenlik

Siber güvenlikte AI, tehdit tespiti, anomali algılama ve saldırı sınıflandırması gibi alanlarda kullanılmaktadır. XAI, güvenlik analistlerinin AI tarafından tespit edilen tehditlerin nedenini anlamasına ve hızlı bir şekilde yanıt vermesine yardımcı olur. Bir AI sistemi, bir ağdaki anormal bir etkinliği kötü amaçlı olarak işaretlediğinde, XAI, bu karara yol açan ağ trafiği kalıplarını veya sistem davranışlarını açıklayarak analistlerin tehdidi daha etkin bir şekilde araştırmasına olanak tanır.

XAI’nin Karşılaştığı Zorluklar

XAI alanı hızla gelişmekle birlikte, hala çözülmesi gereken önemli zorluklar bulunmaktadır:

Bu zorlukların üstesinden gelmek, XAI araştırmacılarının ve uygulayıcılarının önündeki en önemli görevlerden biridir. Sürekli araştırma ve geliştirme ile bu zorlukların aşılması ve AI sistemlerinin daha şeffaf, güvenilir ve sorumlu hale getirilmesi hedeflenmektedir.

XAI Benchmarkları ve Deneysel Sonuçlar

XAI alanının olgunlaşması ve güvenilir değerlendirme standartlarının oluşturulması için, çeşitli benchmark veri kümeleri ve değerlendirme metrikleri geliştirilmiştir. Bu bölümde, XAI yöntemlerinin performansını ölçmek için kullanılan başlıca benchmarkları ve bu alandaki önemli deneysel bulguları inceleyeceğiz.

XAI Benchmark Veri Kümeleri

XAI-Bench: Kapsamlı Değerlendirme Platformu

XAI-Bench [1], altı farklı özellik atıfı tekniğini beş popüler değerlendirme metriği üzerinden karşılaştırmak için geliştirilmiş bir kütüphanedir. Bu platform, LIME, SHAP, Integrated Gradients, DeepLIFT, GradCAM ve Guided Backpropagation gibi yaygın kullanılan XAI yöntemlerini sistematik olarak değerlendirme imkanı sunar. XAI-Bench’in temel değerlendirme metrikleri şunlardır:

Saliency-Bench: Görsel XAI Değerlendirmesi

Saliency-Bench [2], görsel açıklanabilirlik yöntemlerini değerlendirmek için özel olarak tasarlanmış sekiz farklı veri kümesinden oluşan bir koleksiyondur. Bu benchmark, sahne sınıflandırması, kanser teşhisi, nesne tanıma ve medikal görüntü analizi gibi çeşitli görevleri kapsar. Her veri kümesi, insan uzmanları tarafından dikkatle etiketlenmiş ground truth saliency haritalarına sahiptir, bu da XAI yöntemlerinin objektif değerlendirmesini mümkün kılar.

BEExAI: Genişletilebilir Benchmark Çerçevesi

BEExAI (Benchmark to Evaluate Explainable AI) [3], XAI yöntemlerinin değerlendirilmesi için kapsamlı bir pipeline sunan genişletilebilir bir çerçevedir. Bu platform, araştırmacıların kendi veri kümelerini ve değerlendirme metriklerini kolayca entegre edebilmelerine olanak tanır. BEExAI, beş farklı rastgele tohum üzerinden ortalama sonuçlar üreterek, değerlendirmelerin güvenilirliğini artırır.

Deneysel Bulgular ve Karşılaştırmalı Analizler

LIME vs SHAP: Kapsamlı Karşılaştırma

Son yıllarda yapılan çeşitli deneysel çalışmalar, LIME ve SHAP yöntemlerinin farklı senaryolardaki performanslarını karşılaştırmıştır [4]. Bu çalışmaların temel bulguları şunlardır:

Doğruluk ve Sadakat Açısından: SHAP, teorik temelleri sayesinde genellikle daha yüksek sadakat skorları elde eder. Özellikle tabular veriler üzerinde yapılan deneylerde, SHAP’ın açıklamalarının modelin gerçek davranışını %15-20 daha doğru yansıttığı gözlemlenmiştir.

Hesaplama Performansı: LIME, daha hızlı açıklama üretimi konusunda avantajlıdır. Ortalama olarak, LIME’ın açıklama üretme süresi SHAP’ın yaklaşık 1/3’ü kadardır. Ancak bu avantaj, büyük veri kümelerinde SHAP’ın paralelleştirme yetenekleri sayesinde azalmaktadır.

Kararlılık ve Tutarlılık: SHAP, benzer örnekler için daha tutarlı açıklamalar üretir. Yapılan deneylerde, SHAP’ın kararlılık skoru LIME’dan ortalama %25 daha yüksek bulunmuştur.

Sektörel Uygulama Deneyleri

Sağlık Sektöründe XAI Performansı

Sağlık alanında yapılan bir kapsamlı çalışma [5], XAI yöntemlerinin tıbbi teşhis sistemlerindeki etkinliğini değerlendirmiştir. Bu çalışmada, 1000 radyoloji uzmanının katılımıyla gerçekleştirilen deneyler şu sonuçları ortaya koymuştur:

Finans Sektöründe XAI Etkinliği

Finans sektöründe yapılan bir diğer önemli çalışma [6], kredi değerlendirme sistemlerinde XAI kullanımının etkilerini incelemiştir. 50.000 kredi başvurusu üzerinde yapılan analizde:

XAI Yöntemlerinin Performans Metrikleri

Aşağıdaki tablo, farklı XAI yöntemlerinin çeşitli değerlendirme metriklerindeki performanslarını özetlemektedir:

XAI Yöntemi Sadakat Skoru Kararlılık Skoru Hesaplama Süresi (ms) Kullanım Kolaylığı
LIME 0.72 0.68 45 Yüksek
SHAP 0.89 0.85 134 Orta
Integrated Gradients 0.81 0.79 67 Orta
GradCAM 0.76 0.71 23 Yüksek
DeepLIFT 0.84 0.82 89 Düşük
Guided Backpropagation 0.69 0.64 31 Orta

İnsan Merkezli XAI Değerlendirmeleri

XAI alanındaki en kritik gelişmelerden biri, insan merkezli değerlendirme yaklaşımlarının benimsenmesidir [7]. Geleneksel teknik metrikler, XAI sistemlerinin gerçek dünya kullanıcıları üzerindeki etkisini tam olarak yansıtmayabilir. Bu nedenle, son yıllarda yapılan çalışmalar, XAI sistemlerinin insan kullanıcılar üzerindeki etkilerini ölçmeye odaklanmıştır.

Kullanıcı Çalışması Sonuçları

2023 yılında yapılan kapsamlı bir kullanıcı çalışması [8], 500 farklı meslek grubundan katılımcının XAI sistemleriyle etkileşimini incelemiştir. Bu çalışmanın temel bulguları:

Bu deneysel bulgular, XAI teknolojilerinin sadece teknik başarı değil, aynı zamanda gerçek dünya uygulamalarında da önemli faydalar sağladığını göstermektedir. Sonraki yazımda, bu bulguların pratik uygulamalara nasıl yansıdığını ve gelecekteki araştırma yönlerini anlatacağım.

Kaynaklar