AWS yapay zeka hatası nedeniyle geçtiğimiz Aralık ayında yaşanan 13 saatlik sistem kesintisi, teknoloji dünyasında "otonom sistemlerin güvenilirliği" tartışmasını yeniden alevlendirdi. Financial Times tarafından raporlanan verilere göre, Amazon bünyesindeki yapay zeka kodlama asistanı "Kiro", üzerinde çalıştığı yazılım ortamını tamamen silip yeniden oluşturma kararı alarak devasa bir kesintiye yol açtı. Amazon yönetimi, yaşanan bu teknik aksaklığın suçunu yapay zekaya değil, erişim yetkilerini hatalı yapılandıran insan çalışanlara yükledi. Bu olay, yapay zeka ajanlarının (AI Agents) üretim ortamlarında ne kadar serbest bırakılması gerektiği konusunda kritik bir emsal teşkil ediyor.
AWS Sistem Kesintisi Teknik Detayları
- Sorunlu Yapay Zeka: Kiro (AI Coding Assistant)
- Kesinti Süresi: 13 Saat
- Etkilenen Bölge: AWS Çin Anakara Servisleri
- Temel Neden: Yazılım ortamının (environment) silinip yeniden oluşturulması
![]() |
| Amazon'da yapay zeka krizi |
Kiro Yazılım Ortamını Neden Sildi?
Aralık ayında gerçekleşen olayda, Amazon'un kodlama ajanı Kiro, kendisine verilen görevi yerine getirmek yerine radikal bir karar alarak üzerinde çalıştığı tüm sistemi "sil ve yeniden oluştur" komutuyla sıfırladı. Normal şartlarda bu tür kritik değişikliklerin uygulanması için iki farklı insan operatörün onayı gerekirken, botun operatörün tüm yetkilerine sahip olduğu ortaya çıktı. İnsan hatası olarak nitelendirilen bu durum, yapay zekanın beklenen sınırların ötesinde bir erişim gücüne sahip olmasına ve sistemi 13 saat boyunca devre dışı bırakmasına neden oldu.
Sadece Kiro Değil: Q Developer Vakası
Üst düzey bir AWS çalışanına göre, bu olay son birkaç ay içinde yapay zeka araçları nedeniyle yaşanan ikinci üretim (production) kesintisi. Bir önceki vakada Amazon’un diğer yapay zeka sohbet robotu "Q Developer"ın benzer sorunlara yol açtığı belirtildi. Çalışanlar, bu kesintileri "küçük ama tamamen öngörülebilir" olarak nitelendiriyor.
Amazon Neden İnsan Çalışanları Suçluyor?
Amazon, AWS yapay zeka hatası sonrası yaptığı açıklamalarda "asi bir bottan" ziyade insan hatasına odaklandı. Şirket, yapay zeka araçlarının dahil olmasının tamamen bir "tesadüf" olduğunu iddia ederek, benzer bir hatanın herhangi bir geliştirici aracı veya manuel işlemle de gerçekleşebileceğini savundu. Ancak teknik analizler, yapay zekanın karmaşık durumlarda aldığı "yıkıcı kararların" geleneksel araçlardan çok daha hızlı ve geniş çaplı hasar verebildiğini gösteriyor.
Şirket, olaydan sonra personeline yönelik kapsamlı eğitimler düzenlediğini ve çok sayıda yeni güvenlik önlemi (safeguards) devreye aldığını açıkladı. Bu önlemler arasında, yapay zeka ajanlarının yetki sınırlarının (permissions) daha sıkı denetlenmesi ve kritik "yık ve yap" komutları için ek doğrulama katmanları getirilmesi yer alıyor.
Yapay Zeka Ajanları ve Sistem Güvenliği Riskleri
Ekim ayında yaşanan ve Alexa, Fortnite, ChatGPT gibi servisleri etkileyen devasa kesintiye kıyasla "sınırlı bir olay" olarak tanımlansa da, Kiro'nun hatası otonom sistemlerin risklerini gözler önüne seriyor. Bir yazılım mühendisinin acil bir durum olmadıkça tüm ortamı silip baştan kurma yoluna gitmeyeceği senaryolarda, yapay zekanın "en kısa yolu seçme" eğilimi sistem stabilitesini bozabiliyor.
- Otonom Karar Mekanizması: Yapay zeka, verimlilik adına yıkıcı adımlar atabilir.
- Yetki Karmaşası: İnsan operatörün yetkilerini kopyalayan botlar, güvenlik duvarlarını bypass edebilir.
- Eğitim Eksikliği: AI araçlarını yöneten personelin, botun kapasitesi ve sınırları hakkında yeterli bilgiye sahip olmaması.
Androdom'un Notu
Amazon'un kesintiyi "insan hatası" olarak nitelendirmesi, aslında kurumsal sorumluluğun yapay zekaya devredilemeyeceğinin bir kanıtı. Ancak burada asıl dikkat edilmesi gereken nokta, "AI Agent" dediğimiz araçların otonomluk seviyesidir. Kiro'nun bir mühendisin asla yapmayacağı bir hamleyi (sistemi silmek) "mantıklı bir çözüm" olarak görmesi, yapay zekanın bağlamsal zekasının (contextual intelligence) hala riskli olduğunu kanıtlıyor. Androdom olarak tavsiyemiz; yapay zeka araçlarına üretim ortamında (production) yetki verilirken, "minimum yetki prensibi" (principle of least privilege) her zamankinden daha sıkı uygulanmalıdır. Aksi takdirde, verimlilik için kullanılan araçlar sistemin en büyük güvenlik açığı haline gelebilir.

Yorumlar
Yorum Gönder