Yapay zekâ artık yalnız teknoloji ekiplerinin değil, insan kaynakları, satış, müşteri hizmetleri, hukuk ve bordro ekiplerinin de günlük çalışma araçları arasına girmeye başladı. Bir e-postayı özetlemek, sözleşme taslağı hazırlamak, rapor yazmak ya da toplantı notu üretmek için ChatGPT benzeri araçlara başvurmak giderek yaygınlaşıyor. Nitekim KVKK da üretken yapay zekâ sistemlerinin kullanım alanları, riskleri ve kişisel veri işleme boyutuna ilişkin güncel rehberler yayımladı.
Peki çalışan bir kişinin işyerinde ChatGPT kullanması tek başına işten çıkarma nedeni olur mu?
Cevap çoğu durumda hayır, tek başına otomatik bir fesih nedeni değildir. Ancak kullanılan verinin niteliği, işverenin açık talimatları, çalışanının pozisyonu, gizlilik yükümlülüğü ve ortaya çıkan sonuca göre bu kullanım ciddi iş hukuku sonuçları doğurabilir. Bu değerlendirme; işçinin işverene karşı özen ve sadakat borcu ile işverenin haklı menfaatlerinin korunması ilkeleri çerçevesinde somut olaya göre yapılır.
Neden bu konu artık iş hukuku meselesi?
Üretken yapay zekâ kullanımında en büyük risk, çalışanın farkında olmadan sisteme kişisel veri, ticari sır, müşteri bilgisi, bordro verisi veya şirket içi hassas doküman girmesidir. KVKK’nın güncel rehberlerinde de üretken yapay zekâ kullanımının kişisel veri işleme faaliyetleri bakımından değerlendirilmesi gerektiği açıkça vurgulanıyor. İşyerlerinde yapay zekâ araçlarının kullanımına ilişkin yayımlanan doküman da bu kullanımın verimlilik sağlarken aynı zamanda dikkat edilmesi gereken hususlar doğurduğunu belirtiyor.
Bu nedenle mesele artık yalnız “çalışan yeni bir araç kullandı” meselesi değil; aynı zamanda veri güvenliği, gizlilik, işveren talimatına uyum ve iş ilişkisindeki güven meselesidir. Uzaktan Çalışma Yönetmeliği’nin amacı içinde de verilerin korunması ve paylaşılmasına ilişkin işletme kurallarının uygulanması açıkça yer alır. Bu da özellikle hibrit ve uzaktan çalışan ekiplerde yapay zekâ kullanımını daha hassas hale getirir.
Hangi durumlarda risk büyür?
1) Kişisel veri ChatGPT’ye giriliyorsa
Çalışan; müşteri adı, çalışan sicil bilgisi, maaş verisi, sağlık verisi, iletişim bilgisi, T.C. kimlik numarası veya performans değerlendirmesi gibi verileri yapay zekâ aracına yüklüyorsa, burada KVKK boyutu doğabilir. Çünkü bu tür kullanım, kişisel verilerin işlenmesi ve bazen üçüncü taraf sistemlere aktarımı sonucunu da doğurabilir.
2) Şirket sırrı veya iç dokümanlar sisteme yükleniyorsa
Henüz kamuya açık olmayan fiyat teklifleri, sözleşme taslakları, bordro tabloları, müşteri listeleri, yazılım kodları veya iç prosedürlerin dış araçlara kopyalanması, işverenin haklı menfaatlerini zedeleyebilir. İşçinin özen ve sadakat borcu tam da bu noktada önem kazanır.
3) İşveren açıkça yasaklamış ya da sınırlandırmışsa
Şirketin yazılı bilgi güvenliği politikası, AI kullanım politikası veya iç yönetmeliği varsa; çalışan buna rağmen yasaklı kullanıma devam ediyorsa, mesele yalnız teknoloji kullanımı değil, aynı zamanda talimata aykırılık haline dönüşebilir. Bu durumda fesih değerlendirmesi somut olayın ağırlığına göre değişebilir. Bu sonuç, mevcut iş hukuku ve sadakat borcu çerçevesinden yapılan hukuki bir çıkarımdır.
4) Yapay zekâ çıktısı kontrol edilmeden kullanılıyorsa
Bazen risk veri sızıntısı değil, hatalı içeriktir. Örneğin çalışan ChatGPT’ye hazırlattığı bir ihtarnameyi, bordro açıklamasını veya İK metnini hiç kontrol etmeden kullanırsa yanlış bilgi nedeniyle işveren zarara uğrayabilir. İşçinin işi özenle yapma yükümlülüğü burada da devreye girer.
Peki işveren ne yapmalı?
En doğru yaklaşım, “tam yasak” ile “sınırsız serbestlik” arasında dengeli bir model kurmaktır. Çünkü güncel düzenleyici yaklaşım, teknolojiyi tamamen reddetmekten çok riskleri yönetmeye odaklanıyor. KVKK’nın yapay zekâ tavsiyeleri de geliştiriciler, servis sağlayıcılar ve karar alıcılar için kişisel verilerin korunmasına dair önlemler öneriyor.
İşverenler için pratik yol haritası şu olabilir:
- Hangi yapay zekâ araçlarının kullanılabileceğini yazılı hale getirmek
- Kişisel veri ve ticari sır içeren bilgilerin sisteme girilmesini yasaklamak
- Bordro, İK, hukuk, satış ve müşteri hizmetleri ekipleri için ayrı risk seviyeleri belirlemek
- Çalışanlara “AI kullanırken veri güvenliği” eğitimi vermek
- Yapay zekâ çıktılarının insan kontrolü olmadan kullanılmaması kuralını koymak
- Uzaktan çalışma düzeninde cihaz, erişim ve paylaşım kurallarını netleştirmek
Bu yapı hem verimlilikten vazgeçmeden ilerlemeyi hem de olası iş hukuku ve KVKK risklerini azaltmayı sağlar.
Çalışan açısından en kritik sınır nedir?
Çalışan için temel kural basittir:
“Ben bu bilgiyi bir yabancıya e-posta ile gönderemiyorsam, yapay zekâ aracına da girmemeliyim.”
Özellikle çalışan verileri, müşteri verileri, ücret bilgileri, sözleşmeler, şirket içi raporlar ve henüz açıklanmamış ticari bilgiler bakımından çok daha dikkatli olunmalıdır. Çünkü iş ilişkisi içinde güven unsurunu zedeleyen kullanım, iş hukuku bakımından sonuç doğurabilir.
Sonuç olarakChatGPT kullanmak bugün tek başına “yasak” bir davranış gibi görülemez. Hatta birçok işyerinde verimlilik sağlayan meşru bir yardımcı araç haline gelmiştir. Ancak bu kullanım kişisel veri, şirket sırrı, işveren talimatı ve işçinin sadakat borcu ile çatıştığı anda mesele hızla iş hukuku problemine dönüşebilir. Bu yüzden doğru soru “Çalışan ChatGPT kullandı mı?” değil, “Nasıl kullandı, hangi veriyi kullandı ve hangi kurala aykırı davrandı?” olmalıdır.

iskanunu.com
