1. Giriş
Dijital
dönüşüm, yalnızca üretim süreçlerini değil; denetim, vergi uyumu ve danışmanlık
hizmetlerini de kökten değiştirmektedir. Yapay zekâ (YZ), kısa sürede büyük
veri setlerinden sonuç çıkarma, tutarsızlıkları saptama ve öneri üretme
kapasitesiyle kamu yönetiminde ve özel sektörde hızlıca benimsenmiştir. Ancak
bu teknolojik ivme, insan muhakemesinin yerine makine kararlarını ikame
ettiğinde 'dijital yanılgı' riskini de beraberinde getirmektedir. Son
olarak Deloitte’un Avustralya’da yaşadığı olay, bu riskin ne kadar somut
olabileceğini ortaya koymuştur.
2. Deloitte Olayı: Yapay
Zekâ ile Hazırlanan Raporun Geri Ödemesi
2024
yılında Deloitte Avustralya, Çalışma ve İşyeri İlişkileri Bakanlığı (DEWR) için
yaklaşık 440.000 dolarlık bir uyumluluk çerçevesi raporu hazırladı. Ancak
raporda, yapay zekâ tarafından üretilen hatalı referanslar, yanlış atıflar ve
doğrulanamayan kaynaklar tespit edildi. Yapay zekânın kullandığı metin üretim
modeli, halüsinasyon (AI hallucination) olarak adlandırılan bir olgu sonucunda
var olmayan kaynakları gerçekmiş gibi göstermişti. Deloitte, hataları kabul
ederek raporun bazı kısımlarını yeniden düzenledi ve hükümete kısmi para iadesi
yaptı. Raporun hazırlanmasında Microsoft Azure OpenAI GPT-4o modeli
kullanılmıştı. Ancak modelin üretken doğası, doğrulama süreçleri yeterince
insan kontrolünden geçmeden doğrudan rapora aktarıldı. Böylece denetim raporu,
yapay zekânın görünmez hatalarını taşıyan bir belgeye dönüştü.
3. Dijital Yanılgının
Niteliği: İnsan Yerine Algoritmanın Denetimi
Deloitte
olayı, denetimde yapay zekâ kullanımının üç temel riskini ortaya koymaktadır.
1. Şeffaflık eksikliği: Yapay zekâ hangi veri kaynaklarını
kullandığını tam olarak açıklayamaz.
2. Yanlış pozitif/negatif sonuçlar: Sistem, sorun olmayan
işlemleri riskli olarak işaretleyebilir veya tam tersini yapabilir.
3.
Sorumluluk belirsizliği: Hata insanın mı, algoritmanın mı sorunudur?
Bu durum, insan muhakemesinin tamamen devre dışı bırakıldığı sistemlerde
'dijital yanılgı' olarak tanımlanabilir. Teknoloji, gerçeği yansıttığını
varsaydığı bir model üzerinden işlem yürütür; fakat modelin beslendiği veriler
eksik, bağlamsız veya sistematik olarak yanlıysa, sonuç da hatalı olur.
4. Türkiye’de KURGAN
Uygulaması ve Benzer Riskler
Türkiye’de
Gelir İdaresi Başkanlığı (GİB) ve Vergi Denetim Kurulu (VDK), son yıllarda
vergi denetiminde KURGAN (Kuruluş Gözetimli Analiz Sistemi) adlı yapay zekâ
sistemini devreye almıştır. Bu sistem, mükelleflerin beyanname, e-fatura,
e-defter ve banka hareketleri gibi çok sayıda dijital verisini analiz ederek
riskli görülen işlemleri tespit etmekte ve ilgili mükelleflere 'düzeltme
yönlendirme yazıları' göndermektedir. Ancak sistemin arka plan
algoritmaları kamuoyuna açıklanmadığı gibi, mükelleflerin iş çevresi, sektörel
koşulları veya dönemsel farklılıkları da çoğu zaman yeterince dikkate
alınmamaktadır. Bu nedenle 'dijital yanılgı', Türkiye’de vergi
denetimi açısından da görünür hale gelmiştir. Bir mükellefin işletme döngüsünde
mevsimsel dalgalanma, finansman sıkışıklığı veya ticari erteleme gibi olağan
durumlar, sistem tarafından 'risk' olarak işaretlenebilmektedir.
5. Dijital Denetim –
Mükellef Güveni İlişkisi
Yapay
zekâ destekli sistemler, teknik olarak hatasız işlem yapsalar bile, mükellef
algısı ve davranışsal uyum açısından ciddi sonuçlar doğurabilir. Vergi
idaresinin dijital analizler sonucu gönderdiği düzeltme yazıları mükellefte 'önceden
yargılanmışlık' hissi yaratabilir, vergi danışmanları ile idare
arasındaki iletişim kanallarını otomatik süreçlere indirger, ve 'idare
zaten her şeyi biliyor' algısıyla mükellef sadakatini ve gönüllü uyumu
zayıflatır. Tıpkı Deloitte olayında olduğu gibi, teknolojik doğruluk ile
güvenilirlik aynı şey değildir. Deloitte’un hatası danışmanlık müşterisinin
güvenini nasıl sarstıysa, vergi idaresinin algoritmik yönlendirmeleri de
mükellef güvenini zedeleyebilir. Bu durum, uzun vadede davranışsal vergi
uyumunu olumsuz etkileyebilir; mükellef, vergi idaresiyle işbirliği yerine
savunma refleksiyle hareket etmeye başlar.
6. Sonuç: İnsan Muhakemesi
Olmadan Dijital Adalet Olmaz
Yapay
zekâ, denetim ve vergi uygulamalarında büyük kolaylıklar sağlasa da, insan
muhakemesinin yerini alamaz. Deloitte örneğinde görüldüğü gibi, algoritmaların 'doğruyu'
üretmesi, yalnızca teknik doğruluktan ibaret değildir; bağlam, etik ve
güven unsurları da işin içindedir. Türkiye’de KURGAN benzeri yapay zekâ
sistemlerinin başarıyla çalışabilmesi için algoritmik şeffaflık sağlanmalı,
mükellef çevresi ve sektör koşulları dikkate alınmalı, davranışsal güven
korunmalıdır. Dijitalleşme, insanı dışlayan değil; insan muhakemesini
destekleyen bir araç olmalıdır. Aksi halde dijital yanılgı, yalnızca bir veri
hatası değil, sistemsel bir güven krizine dönüşecektir.
Kaynakça
• Deloitte Australia, DEWR AI Compliance
Framework Report (2024)
• The Guardian, 'Deloitte Repays Government After AI-Generated Report Errors'
(2025)
• Vergi Denetim Kurulu Başkanlığı,
KURGAN Projesi Tanıtım Dokümanı (2023)
• OECD, 'Tax Administration 3.0: Digital
Transformation and Trust' (2022)
· Algoritma; Belirli bir problemi çözmek veya belirli bir amaca
ulaşmak için çözüm yolunun adım adım tasarlanmasıdır.( https://bilimgenc.tubitak.gov.tr/algoritma-nedir)
Hiç yorum yok:
Yorum Gönder