Microsoft, yapay zekâ destekli asistanı Microsoft Copilot için kullanım şartlarını güncelleyerek tartışma yaratacak bir ifadeye yer verdi.
Yeni metinde, Copilot’un sunduğu yanıtların “yalnızca eğlence amaçlı” değerlendirilebileceğine vurgu yapılması dikkat çekti.
İlk bakışta kullanıcı güvenini zedeleyebilecek bu ifade, aslında şirketin kendini olası hukuki risklere karşı koruma stratejisinin bir parçası olarak görülüyor. Microsoft, kullanıcıların kritik kararlar alırken yapay zekâya tamamen güvenmemesi gerektiğini açıkça belirtiyor.
Bu yaklaşım, yapay zekâ sistemlerinin zaman zaman hatalı veya yanıltıcı bilgiler üretebildiği gerçeğinin resmi bir kabulü olarak yorumlanıyor.

“DOĞRULAMADAN KULLANMAYIN” MESAJI
Yeni kullanım şartlarında, Copilot’tan alınan bilgilerin mutlaka doğrulanması gerektiği vurgulanıyor. Şirket, dijital asistanın bir “karar verici” değil, yalnızca destekleyici bir araç olarak görülmesi gerektiğinin altını çiziyor.
Ayrıca kullanıcıların hassas veya özel verileri paylaşırken dikkatli olması gerektiği de özellikle belirtiliyor.
Güncellenen metin, olası hatalı bilgi nedeniyle doğabilecek zararlar konusunda sorumluluğun büyük ölçüde kullanıcıya ait olduğunu ortaya koyuyor. Microsoft, sistem çıktılarından kaynaklanan maddi ya da manevi kayıplarda doğrudan sorumluluk üstlenmeyeceğini net şekilde ifade ediyor.
Buna ek olarak, kullanıcı verilerinin hizmeti geliştirmek amacıyla kullanılabileceği de şartlar arasında yer alıyor.