8 Ekim 2025 Çarşamba

Yapay Zekâ Denetiminde Dijital Yanılgı: Deloitte Olayından KURGAN Uygulamasına Güven Sorunu

 

1. Giriş

Dijital dönüşüm, yalnızca üretim süreçlerini değil; denetim, vergi uyumu ve danışmanlık hizmetlerini de kökten değiştirmektedir. Yapay zekâ (YZ), kısa sürede büyük veri setlerinden sonuç çıkarma, tutarsızlıkları saptama ve öneri üretme kapasitesiyle kamu yönetiminde ve özel sektörde hızlıca benimsenmiştir. Ancak bu teknolojik ivme, insan muhakemesinin yerine makine kararlarını ikame ettiğinde 'dijital yanılgı' riskini de beraberinde getirmektedir. Son olarak Deloitte’un Avustralya’da yaşadığı olay, bu riskin ne kadar somut olabileceğini ortaya koymuştur.

2. Deloitte Olayı: Yapay Zekâ ile Hazırlanan Raporun Geri Ödemesi

2024 yılında Deloitte Avustralya, Çalışma ve İşyeri İlişkileri Bakanlığı (DEWR) için yaklaşık 440.000 dolarlık bir uyumluluk çerçevesi raporu hazırladı. Ancak raporda, yapay zekâ tarafından üretilen hatalı referanslar, yanlış atıflar ve doğrulanamayan kaynaklar tespit edildi. Yapay zekânın kullandığı metin üretim modeli, halüsinasyon (AI hallucination) olarak adlandırılan bir olgu sonucunda var olmayan kaynakları gerçekmiş gibi göstermişti. Deloitte, hataları kabul ederek raporun bazı kısımlarını yeniden düzenledi ve hükümete kısmi para iadesi yaptı. Raporun hazırlanmasında Microsoft Azure OpenAI GPT-4o modeli kullanılmıştı. Ancak modelin üretken doğası, doğrulama süreçleri yeterince insan kontrolünden geçmeden doğrudan rapora aktarıldı. Böylece denetim raporu, yapay zekânın görünmez hatalarını taşıyan bir belgeye dönüştü.

3. Dijital Yanılgının Niteliği: İnsan Yerine Algoritmanın Denetimi

Deloitte olayı, denetimde yapay zekâ kullanımının üç temel riskini ortaya koymaktadır.
1. Şeffaflık eksikliği: Yapay zekâ hangi veri kaynaklarını kullandığını tam olarak açıklayamaz.
2. Yanlış pozitif/negatif sonuçlar: Sistem, sorun olmayan işlemleri riskli olarak işaretleyebilir veya tam tersini yapabilir.

3. Sorumluluk belirsizliği: Hata insanın mı, algoritmanın mı sorunudur?
Bu durum, insan muhakemesinin tamamen devre dışı bırakıldığı sistemlerde 'dijital yanılgı' olarak tanımlanabilir. Teknoloji, gerçeği yansıttığını varsaydığı bir model üzerinden işlem yürütür; fakat modelin beslendiği veriler eksik, bağlamsız veya sistematik olarak yanlıysa, sonuç da hatalı olur.

4. Türkiye’de KURGAN Uygulaması ve Benzer Riskler

Türkiye’de Gelir İdaresi Başkanlığı (GİB) ve Vergi Denetim Kurulu (VDK), son yıllarda vergi denetiminde KURGAN (Kuruluş Gözetimli Analiz Sistemi) adlı yapay zekâ sistemini devreye almıştır. Bu sistem, mükelleflerin beyanname, e-fatura, e-defter ve banka hareketleri gibi çok sayıda dijital verisini analiz ederek riskli görülen işlemleri tespit etmekte ve ilgili mükelleflere 'düzeltme yönlendirme yazıları' göndermektedir. Ancak sistemin arka plan algoritmaları kamuoyuna açıklanmadığı gibi, mükelleflerin iş çevresi, sektörel koşulları veya dönemsel farklılıkları da çoğu zaman yeterince dikkate alınmamaktadır. Bu nedenle 'dijital yanılgı', Türkiye’de vergi denetimi açısından da görünür hale gelmiştir. Bir mükellefin işletme döngüsünde mevsimsel dalgalanma, finansman sıkışıklığı veya ticari erteleme gibi olağan durumlar, sistem tarafından 'risk' olarak işaretlenebilmektedir.

5. Dijital Denetim – Mükellef Güveni İlişkisi

Yapay zekâ destekli sistemler, teknik olarak hatasız işlem yapsalar bile, mükellef algısı ve davranışsal uyum açısından ciddi sonuçlar doğurabilir. Vergi idaresinin dijital analizler sonucu gönderdiği düzeltme yazıları mükellefte 'önceden yargılanmışlık' hissi yaratabilir, vergi danışmanları ile idare arasındaki iletişim kanallarını otomatik süreçlere indirger, ve 'idare zaten her şeyi biliyor' algısıyla mükellef sadakatini ve gönüllü uyumu zayıflatır. Tıpkı Deloitte olayında olduğu gibi, teknolojik doğruluk ile güvenilirlik aynı şey değildir. Deloitte’un hatası danışmanlık müşterisinin güvenini nasıl sarstıysa, vergi idaresinin algoritmik yönlendirmeleri de mükellef güvenini zedeleyebilir. Bu durum, uzun vadede davranışsal vergi uyumunu olumsuz etkileyebilir; mükellef, vergi idaresiyle işbirliği yerine savunma refleksiyle hareket etmeye başlar.

6. Sonuç: İnsan Muhakemesi Olmadan Dijital Adalet Olmaz

Yapay zekâ, denetim ve vergi uygulamalarında büyük kolaylıklar sağlasa da, insan muhakemesinin yerini alamaz. Deloitte örneğinde görüldüğü gibi, algoritmaların 'doğruyu' üretmesi, yalnızca teknik doğruluktan ibaret değildir; bağlam, etik ve güven unsurları da işin içindedir. Türkiye’de KURGAN benzeri yapay zekâ sistemlerinin başarıyla çalışabilmesi için algoritmik şeffaflık sağlanmalı, mükellef çevresi ve sektör koşulları dikkate alınmalı, davranışsal güven korunmalıdır. Dijitalleşme, insanı dışlayan değil; insan muhakemesini destekleyen bir araç olmalıdır. Aksi halde dijital yanılgı, yalnızca bir veri hatası değil, sistemsel bir güven krizine dönüşecektir.

Kaynakça

• Deloitte Australia, DEWR AI Compliance Framework Report (2024)
• The Guardian, 'Deloitte Repays Government After AI-Generated Report Errors' (2025)
• Vergi Denetim Kurulu Başkanlığı, KURGAN Projesi Tanıtım Dokümanı (2023)
•  OECD, 'Tax Administration 3.0: Digital Transformation and Trust' (2022)

· Algoritma; Belirli bir problemi çözmek veya belirli bir amaca ulaşmak için çözüm yolunun adım adım tasarlanmasıdır.( https://bilimgenc.tubitak.gov.tr/algoritma-nedir)


Hiç yorum yok:

Yorum Gönder

Büyüme Var, Paylaşım Yok, Yoksulluk Neden Artıyor?

  Türkiye’de yoksulluk artıyor. Bu artık bir “hissetme” meselesi değil, resmî verilerle sabit bir gerçek . TÜRK-İŞ’in Ocak 2026’da açıkladı...