كشفت تقارير تقنية أن شروط استخدام خدمة Copilot للأفراد من مايكروسوفت تتضمن بندًا واضحًا ينص على أن «Copilot مخصص لأغراض الترفيه فقط» ويحذر المستخدمين من الاعتماد عليه في أي نصائح مهمة، في تناقض صارخ مع تسويق الشركة للأداة كـ«مساعد عمل لا غنى عنه» داخل ويندوز وحزمة أوفيس.
وأوضحت TechCrunch أن اللغة القانونية المخبأة في صفحة الشروط – والمحدثة آخر مرة في أكتوبر 2025 – تقول نصًا: «يمكن أن يخطئ Copilot، وقد لا يعمل كما هو متوقع. لا تعتمد على Copilot للحصول على نصائح مهمة. استخدم Copilot على مسؤوليتك الخاصة».
فجوة بين الوعود القانونية ورسائل التسويق
أشارت التقارير إلى أن هذه الصياغة أثارت موجة انتقادات على الشبكات الاجتماعية؛ فبينما تنفق مايكروسوفت مليارات الدولارات لتضمين Copilot في ويندوز، وOffice، وEdge، وتسوقه كأداة لزيادة الإنتاجية في الشركات والأعمال، تقول وثيقة الشروط بوضوح إن الشركة لا تقدّم أي ضمانات حول دقة مخرجاته أو ملاءمتها للاستخدام الجاد.
وتضيف الشروط أن مايكروسوفت «لا تقدم أي تعهد أو ضمان من أي نوع بشأن Copilot»، وأن المستخدم وحده يتحمل مسؤولية أي محتوى يولده أو يشاركه اعتمادًا على الأداة، بما في ذلك مخاطر انتهاك حقوق النشر أو العلامات التجارية أو الخصوصية.
ويرى محللون أن هذه الفجوة بين لغة التسويق ولغة الشروط تعكس حالة عامة في سوق الذكاء الاصطناعي تعرض الشركات منتجاتها كحلول «شبه سحرية» في المؤتمرات والإعلانات، لكنها في الوثائق القانونية تخبر المستخدم بشكل صريح: «لا تثق بنا بالكامل، ولا تعتمد علينا في ما يهمك حقًا».
ما الفرق بين Copilot للأفراد ونسخة المؤسسات؟
أوضحت TechCrunch أن بند «للترفيه فقط» ينطبق على نسخة Copilot للأفراد (Consumer Copilot)، أي التجارب المدمجة في ويندوز وEdge وبعض منتجات مايكروسوفت المجانية أو منخفضة التكلفة للمستخدم العادي.
أما نسخة المؤسسات Microsoft 365 Copilot – التي تُباع بعقود مدفوعة للشركات – فلا تخضع لنفس العبارة حرفيًا، بل تحظى بشروط مختلفة، وقدرات إضافية من حيث الأمان والامتثال، مع إمكانية تخصيص شاشات التحذير داخل بيئات العمل.
ومع ذلك، تظل مايكروسوفت حذرة حتى في سياق الشركات؛ إذ تدفع المدراء إلى التعامل مع Copilot كأداة مساعدة تتطلب مراجعة بشرية دائمة، وليس كبديل عن الموظف أو مصدر قرار نهائي في ملفات حساسة مثل الشؤون القانونية أو المالية أو الطبية.
هذا النهج، بحسب خبراء، محاولة لتقليل المسؤولية القانونية في حال اعتماد شركة ما بشكل مفرط على مخرجات الذكاء الاصطناعي وحدها دون تدقيق بشري.
لماذا تقول مايكروسوفت «استخدمه على مسؤوليتك الخاصة»؟
ترى تقارير مثل Tom’s Hardware وThe Next Web أن صياغة «للترفيه فقط» ليست مجرد مبالغة حذرة، بل محاولة واضحة من مايكروسوفت لتقييد توقعات المستخدمين وحماية نفسها من الدعاوى المحتملة في حال اعتمد شخص على Copilot لاتخاذ قرار مهم ثم تعرض لضرر.
فالأدوات المعتمدة على النماذج اللغوية الكبيرة (LLMs) معروفة بظاهرة «الهلوسة»، أي تقديم معلومات خاطئة بثقة، وهو أمر لا يمكن القضاء عليه بالكامل في الجيل الحالي من التقنيات.
لهذا، تريد الشركة أن تثبت في العقد أنها لم تقل أبدًا إن Copilot مصدر «موثوق بالكامل» للحقائق أو النصائح، وأن مسؤولية التحقق النهائي تقع على عاتق المستخدم، سواء كان فردًا يكتب بريدًا إلكترونيًا أو طالبًا يستخدم الأداة في إعداد واجب أو موظفًا يستعين بها في كتابة عرض تقديمي.
رد مايكروسوفت.. «لغة قديمة» قيد التحديث
نقلت TechCrunch عن متحدث باسم مايكروسوفت قوله إن الشركة تعتزم «تحديث اللغة القديمة» في شروط Copilot للأفراد، في إشارة إلى أن عبارة «للترفيه فقط» وُضعت في وقت مبكر كمصطلح قانوني احترازي ولم تُعدّل رغم توسع استخدام الأداة في سيناريوهات عمل أكثر جدية.
لكن حتى مع هذا التوضيح، يرى كثيرون أن مجرد وجود هذه العبارة حتى وقت قريب، بالتزامن مع حملات تسويق مكثفة تدفع المستخدمين للاعتماد على Copilot في الدراسة والعمل، يفتح الباب أمام أسئلة محرجة حول مدى اتساق رسائل مايكروسوفت مع واقع قدرات تقنيتها وحدودها.
في النهاية، تشترك مايكروسوفت مع شركات أخرى في هذا الموقف المزدوج: من ناحية، هي تريد أن تكون أدوات الذكاء الاصطناعي في قلب كل مهمة رقمية نؤديها يوميًا؛ ومن ناحية أخرى، تخبرنا في سطور الشروط الدقيقة بأن هذه الأدوات يمكن أن تخطئ، وأننا نحن – لا هي – من سيتحمل العواقب إن أخذنا ما تقوله كحقيقة نهائية دون مراجعة أو تفكير.







