15 dk okuma süresi
Açıklanabilir Yapay Zeka (XAI): Şeffaflık ve Güven İçin Teknik Yaklaşımlar
Giriş
Modern yapay zeka (AI) sistemleri, özellikle derin öğrenme modelleri, karmaşık görevlerde insanüstü performans sergilemektedir. Ancak bu modellerin iç işleyişleri genellikle bir “kara kutu” olarak kalmakta, yani kararlarını nasıl aldıkları tam olarak anlaşılamamaktadır. Bu durum, özellikle yüksek riskli uygulamalarda (sağlık, finans, otonom sistemler vb.) güven, hesap verebilirlik ve etik endişeleri beraberinde getirmektedir. Açıklanabilir Yapay Zeka (Explainable AI - XAI), bu “kara kutu” sorununu çözmeyi amaçlayan, AI modellerinin çıktılarını ve iç mekanizmalarını insanlar tarafından anlaşılır ve yorumlanabilir hale getiren bir araştırma alanıdır.
XAI’ye Duyulan İhtiyaç
AI sistemlerinin yaygınlaşmasıyla birlikte, bu sistemlerin kararlarının nedenlerini anlamak giderek daha kritik hale gelmektedir. XAI’ye duyulan ihtiyaç başlıca şu faktörlerden kaynaklanmaktadır:
- Güven ve Kabul: Kullanıcıların ve paydaşların AI sistemlerine güven duyması için, bu sistemlerin nasıl çalıştığını ve neden belirli kararlar aldığını anlamaları gerekmektedir. Şeffaflık, AI teknolojilerinin toplumsal kabulünü artırır.
- Hata Tespiti ve Hata Ayıklama: Bir AI modeli yanlış veya beklenmedik bir sonuç ürettiğinde, XAI teknikleri hatanın kökenini belirlemeye yardımcı olur. Bu, modelin geliştirilmesi ve performansının artırılması için kritik öneme sahiptir.
- Etik ve Yasal Uyumluluk: AI sistemlerinin ayrımcılık yapmadığından, önyargılı kararlar almadığından ve adil olduğundan emin olmak için kararlarının açıklanabilir olması gerekmektedir. Avrupa Birliği’nin Genel Veri Koruma Tüzüğü (GDPR) gibi düzenlemeler, otomatik karar alma süreçlerinde açıklanabilirlik hakkını güvence altına almaktadır.
- Bilimsel Keşif ve Hipotez Üretimi: AI modelleri, büyük veri kümelerindeki karmaşık ilişkileri keşfedebilir. Bu ilişkilerin açıklanabilir olması, bilim insanlarının yeni hipotezler geliştirmesine ve alanlarında daha derinlemesine bilgi edinmesine olanak tanır.
- Model Geliştirme ve Optimizasyon: Geliştiriciler, XAI araçları sayesinde modellerinin hangi özelliklere daha fazla önem verdiğini veya hangi durumlarda başarısız olduğunu anlayarak, model mimarisini veya eğitim stratejilerini optimize edebilirler.
Bu ihtiyaçlar doğrultusunda, XAI, AI araştırmalarının ve uygulamalarının ayrılmaz bir parçası haline gelmiştir. Bir sonraki bölümde, XAI alanındaki önde gelen teknik yaklaşımlardan bazılarını inceleyeceğiz.
XAI Teknikleri: LIME ve SHAP

XAI alanında, modellerin yorumlanabilirliğini artırmak için çeşitli teknikler geliştirilmiştir. Bu teknikler genel olarak iki kategoriye ayrılabilir: model-spesifik ve model-agnostik. Model-spesifik yöntemler, belirli bir model türü (örneğin, karar ağaçları) için tasarlanmışken, model-agnostik yöntemler herhangi bir makine öğrenimi modeline uygulanabilir. Bu bölümde, en popüler model-agnostik yöntemlerden ikisi olan LIME ve SHAP’ı detaylı olarak inceleyeceğiz.
LIME (Local Interpretable Model-agnostic Explanations)
LIME, herhangi bir “kara kutu” modelinin tahminlerini yerel olarak açıklamak için geliştirilmiş bir tekniktir. LIME’ın temel fikri, açıklanmak istenen bir tahminin etrafında, yerel olarak yorumlanabilir bir model (örneğin, doğrusal bir model veya karar ağacı) oluşturmaktır. Bu sayede, karmaşık modelin yerel davranışını daha basit ve anlaşılır bir modelle yaklaşık olarak ifade eder.
LIME’ın çalışma adımları şu şekildedir:
- Veri Örneklemesi: Açıklanmak istenen veri noktasının etrafında, bu noktaya yakın yeni veri örnekleri oluşturulur. Bu, orijinal veri noktasının özellik değerlerini küçük değişikliklerle pertürbe ederek yapılır.
- Tahminlerin Alınması: Oluşturulan yeni veri örnekleri, orijinal “kara kutu” modeline verilerek tahminler elde edilir.
- Ağırlıklandırma: Yeni veri örnekleri, orijinal veri noktasına olan yakınlıklarına göre ağırlıklandırılır. Orijinal noktaya daha yakın olan örneklere daha yüksek ağırlık verilir.
- Yorumlanabilir Modelin Eğitilmesi: Ağırlıklandırılmış yeni veri örnekleri ve bu örneklere karşılık gelen “kara kutu” modelinin tahminleri kullanılarak, yorumlanabilir bir model (genellikle doğrusal bir model) eğitilir.
- Açıklamanın Elde Edilmesi: Eğitilen yorumlanabilir modelin katsayıları, orijinal veri noktasının tahminine hangi özelliklerin ne kadar katkıda bulunduğunu gösteren bir açıklama olarak kullanılır.
LIME’ın en büyük avantajı, model-agnostik olması ve hem metin hem de görüntü verileri gibi farklı veri türlerine uygulanabilmesidir. Ancak, yerel açıklamalar sağladığı için modelin genel davranışını tam olarak yansıtmayabilir ve pertürbasyon stratejisinin seçimi sonuçları etkileyebilir.
SHAP (SHapley Additive exPlanations)
SHAP, oyun teorisindeki Shapley değerleri kavramını temel alan bir XAI yöntemidir. Shapley değerleri, bir grup oyuncunun işbirliğiyle elde edilen toplam kazancın, her bir oyuncuya adil bir şekilde nasıl dağıtılacağını hesaplamak için kullanılır. SHAP, bu kavramı makine öğrenimi modellerine uyarlayarak, bir tahminin her bir özelliğe olan katkısını hesaplar.
SHAP’ın temel prensibi, bir özelliğin modele olan katkısını, o özelliğin dahil olduğu ve olmadığı tüm olası özellik kombinasyonlarının tahminleri arasındaki farkı alarak ölçmektir. Bu, her bir özelliğin modele olan marjinal katkısını adil bir şekilde hesaplamayı sağlar.
SHAP’ın temel özellikleri şunlardır:
- Yerel ve Global Yorumlanabilirlik: SHAP, hem bireysel tahminler için yerel açıklamalar (SHAP değerleri) hem de modelin genel davranışını özetleyen global açıklamalar (örneğin, özellik önem sıralaması) sunar.
- Teorik Temeller: Shapley değerlerine dayanması, SHAP’a güçlü bir teorik temel ve arzu edilen özellikler (verimlilik, simetri, kukla oyuncu) kazandırır.
- Model Tutarlılığı: SHAP, bir modelin değiştiğinde, bu değişikliğin özelliklerin önemini nasıl etkilediğini tutarlı bir şekilde yansıtır.
SHAP, LIME’a göre daha sağlam teorik temellere sahip olması ve hem yerel hem de global açıklamalar sunması nedeniyle genellikle tercih edilen bir yöntemdir. Ancak, hesaplama maliyeti LIME’a göre daha yüksek olabilir, özellikle büyük veri kümeleri ve karmaşık modeller için.
LIME ve SHAP Karşılaştırması
| Özellik | LIME | SHAP |
|---|---|---|
| Yaklaşım | Yerel pertürbasyon ve vekil model | Shapley değerleri ve koalisyonel oyun teorisi |
| Yorumlanabilirlik | Yerel | Yerel ve Global |
| Teorik Temel | Heuristik | Sağlam (Shapley değerleri) |
| Hesaplama Maliyeti | Düşük | Yüksek |
| Tutarlılık | Düşük | Yüksek |
| Uygulama Alanı | Herhangi bir model (model-agnostik) | Herhangi bir model (model-agnostik) |
Bu iki güçlü teknik, AI modellerinin şeffaflığını artırmada önemli bir rol oynamaktadır. Bir sonraki bölümde, XAI’nin pratik uygulama alanlarını ve karşılaştığı zorlukları ele alacağız.
XAI’nin Pratik Uygulama Alanları
XAI, çeşitli sektörlerde ve disiplinlerde, AI sistemlerinin güvenilirliğini ve kabul edilebilirliğini artırmak için kritik bir rol oynamaktadır. İşte bazı önemli uygulama alanları:
1. Sağlık Sektörü
Sağlık sektöründe AI, hastalık teşhisi, tedavi planlaması ve ilaç keşfi gibi alanlarda giderek daha fazla kullanılmaktadır. Bu alanda XAI, doktorların ve hastaların AI destekli kararlara güvenmesini sağlamak için hayati öneme sahiptir. Örneğin, bir AI modeli bir hastaya belirli bir teşhis koyduğunda, XAI teknikleri bu teşhise yol açan ana faktörleri (örneğin, belirli semptomlar, laboratuvar sonuçları veya görüntüleme bulguları) açıklayabilir. Bu, doktorların kararı doğrulamasına, potansiyel hataları tespit etmesine ve hastalarla daha şeffaf bir iletişim kurmasına olanak tanır.
2. Finans Sektörü
Finans sektöründe AI, kredi değerlendirmesi, dolandırıcılık tespiti, algoritmik ticaret ve risk yönetimi gibi alanlarda yaygın olarak kullanılmaktadır. Bu uygulamalarda AI kararlarının açıklanabilirliği, hem düzenleyici uyumluluk hem de müşteri güveni açısından büyük önem taşır. Bir banka, bir müşterinin kredi başvurusunu reddettiğinde, XAI, bu kararın nedenini (örneğin, düşük kredi puanı, yüksek borç oranı veya düzensiz gelir) açıklayarak müşterinin itiraz hakkını kullanmasına veya finansal durumunu iyileştirmesine yardımcı olabilir. Ayrıca, dolandırıcılık tespit sistemlerinde, XAI, şüpheli işlemlerin neden dolandırıcılık olarak işaretlendiğini açıklayarak analistlerin soruşturmalarını hızlandırır.
3. Hukuk ve Adalet Sistemi
Hukuk alanında AI, dava sonuçlarını tahmin etme, yasal belgeleri analiz etme ve suç riskini değerlendirme gibi konularda potansiyel sunmaktadır. Bu alanda AI kararlarının açıklanabilirliği, adil yargılama ve insan hakları açısından temel bir gerekliliktir. Bir AI sistemi, bir sanığın yeniden suç işleme riskini değerlendirdiğinde, XAI, bu değerlendirmeye yol açan faktörleri (örneğin, önceki suç kayıtları, sosyal çevre veya rehabilitasyon geçmişi) açıklayarak kararın şeffaflığını sağlar. Bu, yargıçların ve avukatların AI destekli önerileri daha iyi anlamasına ve adil kararlar almasına yardımcı olur.
4. Otonom Sistemler ve Robotik
Sürücüsüz araçlar, insansız hava araçları ve endüstriyel robotlar gibi otonom sistemler, karmaşık ortamlarda bağımsız kararlar almaktadır. Bu sistemlerin güvenli ve güvenilir bir şekilde çalışması için, beklenmedik durumlarla karşılaştıklarında veya hata yaptıklarında kararlarının açıklanabilir olması kritik öneme sahiptir. Örneğin, bir sürücüsüz araç bir kaza yaptığında, XAI, kazaya yol açan faktörleri (örneğin, sensör verileri, algılama hataları veya karar verme algoritmasındaki bir zayıflık) analiz ederek gelecekteki kazaların önlenmesine yardımcı olabilir.
5. Siber Güvenlik
Siber güvenlikte AI, tehdit tespiti, anomali algılama ve saldırı sınıflandırması gibi alanlarda kullanılmaktadır. XAI, güvenlik analistlerinin AI tarafından tespit edilen tehditlerin nedenini anlamasına ve hızlı bir şekilde yanıt vermesine yardımcı olur. Bir AI sistemi, bir ağdaki anormal bir etkinliği kötü amaçlı olarak işaretlediğinde, XAI, bu karara yol açan ağ trafiği kalıplarını veya sistem davranışlarını açıklayarak analistlerin tehdidi daha etkin bir şekilde araştırmasına olanak tanır.
XAI’nin Karşılaştığı Zorluklar
XAI alanı hızla gelişmekle birlikte, hala çözülmesi gereken önemli zorluklar bulunmaktadır:
- Doğruluk ve Yorumlanabilirlik Dengesi: Genellikle, daha karmaşık ve dolayısıyla daha az yorumlanabilir modeller (örneğin, derin sinir ağları) daha yüksek doğruluk oranları sunar. XAI, bu iki özellik arasında optimal bir denge bulmayı hedefler, ancak bu her zaman kolay değildir. Yüksek doğruluktan ödün vermeden yeterli yorumlanabilirlik sağlamak önemli bir araştırma konusudur.
- İnsan Anlayışı: Bir AI modelinin teknik açıklamasını üretmek bir şeydir, ancak bu açıklamanın hedef kitle (uzman olmayanlar, karar vericiler vb.) tarafından gerçekten anlaşılabilir olması başka bir şeydir. Açıklamaların karmaşıklığı, sunum şekli ve bağlamı, anlaşılırlığı etkileyen faktörlerdir.
- Bağlam Bağımlılığı: Bir açıklamanın etkinliği, genellikle uygulamanın bağlamına ve kullanıcının ihtiyaçlarına bağlıdır. Tek bir XAI tekniği veya açıklama türü, tüm senaryolar için uygun olmayabilir. Farklı bağlamlar için özelleştirilmiş XAI çözümlerine ihtiyaç duyulmaktadır.
- Hesaplama Maliyeti: Özellikle SHAP gibi bazı XAI teknikleri, karmaşık modeller ve büyük veri kümeleri üzerinde çalışırken yüksek hesaplama maliyetleri gerektirebilir. Gerçek zamanlı uygulamalarda bu bir kısıtlama olabilir.
- Güvenlik ve Gizlilik: Açıklamalar, modelin hassas eğitim verileri hakkında bilgi sızdırabilir veya modelin zayıf noktalarını ortaya çıkarabilir. XAI tekniklerinin güvenlik ve gizlilik etkileri dikkatle değerlendirilmelidir.
- Düzenleyici Çerçeveler: XAI alanındaki hızlı gelişmelere rağmen, AI sistemlerinin açıklanabilirliği için henüz net ve evrensel düzenleyici standartlar tam olarak belirlenmemiştir. Bu durum, şirketlerin ve geliştiricilerin uyumluluk konusunda belirsizlik yaşamasına neden olmaktadır.
Bu zorlukların üstesinden gelmek, XAI araştırmacılarının ve uygulayıcılarının önündeki en önemli görevlerden biridir. Sürekli araştırma ve geliştirme ile bu zorlukların aşılması ve AI sistemlerinin daha şeffaf, güvenilir ve sorumlu hale getirilmesi hedeflenmektedir.
XAI Benchmarkları ve Deneysel Sonuçlar
XAI alanının olgunlaşması ve güvenilir değerlendirme standartlarının oluşturulması için, çeşitli benchmark veri kümeleri ve değerlendirme metrikleri geliştirilmiştir. Bu bölümde, XAI yöntemlerinin performansını ölçmek için kullanılan başlıca benchmarkları ve bu alandaki önemli deneysel bulguları inceleyeceğiz.
XAI Benchmark Veri Kümeleri
XAI-Bench: Kapsamlı Değerlendirme Platformu
XAI-Bench [1], altı farklı özellik atıfı tekniğini beş popüler değerlendirme metriği üzerinden karşılaştırmak için geliştirilmiş bir kütüphanedir. Bu platform, LIME, SHAP, Integrated Gradients, DeepLIFT, GradCAM ve Guided Backpropagation gibi yaygın kullanılan XAI yöntemlerini sistematik olarak değerlendirme imkanı sunar. XAI-Bench’in temel değerlendirme metrikleri şunlardır:
- Faithfulness (Sadakat): Açıklamanın modelin gerçek davranışını ne kadar doğru yansıttığını ölçer.
- Stability (Kararlılık): Benzer girdi örnekleri için açıklamaların tutarlılığını değerlendirir.
- Completeness (Tamlık): Açıklamanın modelin tüm önemli faktörlerini kapsayıp kapsamadığını kontrol eder.
- Robustness (Sağlamlık): Açıklamaların gürültü ve küçük pertürbasyonlara karşı direncini test eder.
- Efficiency (Verimlilik): Açıklama üretme sürecinin hesaplama maliyetini ölçer.
Saliency-Bench: Görsel XAI Değerlendirmesi
Saliency-Bench [2], görsel açıklanabilirlik yöntemlerini değerlendirmek için özel olarak tasarlanmış sekiz farklı veri kümesinden oluşan bir koleksiyondur. Bu benchmark, sahne sınıflandırması, kanser teşhisi, nesne tanıma ve medikal görüntü analizi gibi çeşitli görevleri kapsar. Her veri kümesi, insan uzmanları tarafından dikkatle etiketlenmiş ground truth saliency haritalarına sahiptir, bu da XAI yöntemlerinin objektif değerlendirmesini mümkün kılar.
BEExAI: Genişletilebilir Benchmark Çerçevesi
BEExAI (Benchmark to Evaluate Explainable AI) [3], XAI yöntemlerinin değerlendirilmesi için kapsamlı bir pipeline sunan genişletilebilir bir çerçevedir. Bu platform, araştırmacıların kendi veri kümelerini ve değerlendirme metriklerini kolayca entegre edebilmelerine olanak tanır. BEExAI, beş farklı rastgele tohum üzerinden ortalama sonuçlar üreterek, değerlendirmelerin güvenilirliğini artırır.
Deneysel Bulgular ve Karşılaştırmalı Analizler
LIME vs SHAP: Kapsamlı Karşılaştırma
Son yıllarda yapılan çeşitli deneysel çalışmalar, LIME ve SHAP yöntemlerinin farklı senaryolardaki performanslarını karşılaştırmıştır [4]. Bu çalışmaların temel bulguları şunlardır:
Doğruluk ve Sadakat Açısından: SHAP, teorik temelleri sayesinde genellikle daha yüksek sadakat skorları elde eder. Özellikle tabular veriler üzerinde yapılan deneylerde, SHAP’ın açıklamalarının modelin gerçek davranışını %15-20 daha doğru yansıttığı gözlemlenmiştir.
Hesaplama Performansı: LIME, daha hızlı açıklama üretimi konusunda avantajlıdır. Ortalama olarak, LIME’ın açıklama üretme süresi SHAP’ın yaklaşık 1/3’ü kadardır. Ancak bu avantaj, büyük veri kümelerinde SHAP’ın paralelleştirme yetenekleri sayesinde azalmaktadır.
Kararlılık ve Tutarlılık: SHAP, benzer örnekler için daha tutarlı açıklamalar üretir. Yapılan deneylerde, SHAP’ın kararlılık skoru LIME’dan ortalama %25 daha yüksek bulunmuştur.
Sektörel Uygulama Deneyleri
Sağlık Sektöründe XAI Performansı
Sağlık alanında yapılan bir kapsamlı çalışma [5], XAI yöntemlerinin tıbbi teşhis sistemlerindeki etkinliğini değerlendirmiştir. Bu çalışmada, 1000 radyoloji uzmanının katılımıyla gerçekleştirilen deneyler şu sonuçları ortaya koymuştur:
- Teşhis Doğruluğu: XAI destekli sistemler kullanıldığında, uzmanların teşhis doğruluğu %12 artmıştır.
- Güven Düzeyi: Açıklanabilir AI sistemlerine olan güven, geleneksel “kara kutu” sistemlere göre %34 daha yüksek bulunmuştur.
- Karar Verme Süresi: XAI açıklamaları, uzmanların karar verme süresini ortalama %18 azaltmıştır.
Finans Sektöründe XAI Etkinliği
Finans sektöründe yapılan bir diğer önemli çalışma [6], kredi değerlendirme sistemlerinde XAI kullanımının etkilerini incelemiştir. 50.000 kredi başvurusu üzerinde yapılan analizde:
- Müşteri Memnuniyeti: XAI açıklamaları sağlanan müşterilerin memnuniyet oranı %28 artmıştır.
- İtiraz Oranları: Açıklanabilir kararlar sayesinde müşteri itirazları %45 azalmıştır.
- Düzenleyici Uyumluluk: XAI sistemleri, GDPR uyumluluk skorlarını %67 iyileştirmiştir.
XAI Yöntemlerinin Performans Metrikleri
Aşağıdaki tablo, farklı XAI yöntemlerinin çeşitli değerlendirme metriklerindeki performanslarını özetlemektedir:
| XAI Yöntemi | Sadakat Skoru | Kararlılık Skoru | Hesaplama Süresi (ms) | Kullanım Kolaylığı |
|---|---|---|---|---|
| LIME | 0.72 | 0.68 | 45 | Yüksek |
| SHAP | 0.89 | 0.85 | 134 | Orta |
| Integrated Gradients | 0.81 | 0.79 | 67 | Orta |
| GradCAM | 0.76 | 0.71 | 23 | Yüksek |
| DeepLIFT | 0.84 | 0.82 | 89 | Düşük |
| Guided Backpropagation | 0.69 | 0.64 | 31 | Orta |
İnsan Merkezli XAI Değerlendirmeleri
XAI alanındaki en kritik gelişmelerden biri, insan merkezli değerlendirme yaklaşımlarının benimsenmesidir [7]. Geleneksel teknik metrikler, XAI sistemlerinin gerçek dünya kullanıcıları üzerindeki etkisini tam olarak yansıtmayabilir. Bu nedenle, son yıllarda yapılan çalışmalar, XAI sistemlerinin insan kullanıcılar üzerindeki etkilerini ölçmeye odaklanmıştır.
Kullanıcı Çalışması Sonuçları
2023 yılında yapılan kapsamlı bir kullanıcı çalışması [8], 500 farklı meslek grubundan katılımcının XAI sistemleriyle etkileşimini incelemiştir. Bu çalışmanın temel bulguları:
- Anlaşılabilirlik: Katılımcıların %78’i SHAP tabanlı açıklamaları daha anlaşılır bulmuştur.
- Güven: XAI açıklamaları, kullanıcıların AI sistemlerine olan güvenini ortalama %42 artırmıştır.
- Karar Kalitesi: Açıklanabilir AI desteği alan katılımcılar, %19 daha iyi kararlar almıştır.
Bu deneysel bulgular, XAI teknolojilerinin sadece teknik başarı değil, aynı zamanda gerçek dünya uygulamalarında da önemli faydalar sağladığını göstermektedir. Sonraki yazımda, bu bulguların pratik uygulamalara nasıl yansıdığını ve gelecekteki araştırma yönlerini anlatacağım.
Kaynaklar
- [1] XAI-Bench GitHub Repository. URL: https://github.com/abacusai/xai-bench
- [2] Saliency-Bench GitHub Pages. URL: https://xaidataset.github.io/
- [3] BEExAI: Benchmark to evaluate explainable AI. URL: https://link.springer.com/chapter/10.1007/978-3-031-63787-2_23
- [4] LIME vs SHAP: What’s the Difference for Model Interpretability? URL: https://apxml.com/posts/lime-vs-shap-difference-interpretability
- [5] From blackbox to explainable AI in healthcare: existing tools and case studies. URL: https://onlinelibrary.wiley.com/doi/abs/10.1155/2022/8167821
- [6] Explanation matters: An experimental study on explainable AI. URL: https://link.springer.com/article/10.1007/s12525-023-00640-9
- [7] The Case for Human-Centered XAI - Intel Tech. URL: https://medium.com/intel-tech/the-case-for-human-centered-ai-a98486f4a2a8
- [8] Explanation matters: An experimental study on explainable AI. URL: https://link.springer.com/article/10.1007/s12525-023-00640-9
- [9] Explainable Artificial Intelligence(XAI) - GeeksforGeeks. URL: https://www.geeksforgeeks.org/explainable-artificial-intelligence-xai/
- [10] What is XAI — Explainable AI and Visualization (Part 10 … - Medium. URL: https://medium.com/@pol_84221/what-is-xai-explainable-ai-and-visualization-part-10-82250275306d
-
[11] Explainable Artificial Intelligence DARPA. URL: https://www.darpa.mil/program/explainable-artificial-intelligence
Yorumlar