قرار xAI: خطوة مهمة لمواجهة أزمة الصور المنتجة بالذكاء الاصطناعي
في وقت تتزايد فيه المخاوف العالمية حول استخدام الذكاء الاصطناعي في إنتاج محتوى غير قانوني، أعلنت شركة xAI الأمريكية، المملوكة لإيلون ماسك، عن قرارها بتقييد استخدام نظام Grok لتوليد الصور، ليكون متاحًا فقط للمشتركين المدفوعين. يأتي هذا القرار وسط تصاعد الانتقادات والمخاوف بشأن استخدام النظام في إنتاج صور غير قانونية، خصوصًا تلك التي تمثل الأطفال، مما يجعل هذه الخطوة ضرورية في الوقت الراهن.
في بيان رسمي على منصة X، أوضحت xAI أن القرار جاء بعد تلقيها معلومات تفيد بأن النظام تم استغلاله لإنشاء صور لأشخاص دون موافقتهم. هذه المعلومات أثارت غضبًا واسعًا بين المستخدمين والجهات التشريعية في أوروبا وبريطانيا، حيث هددت الأخيرة بفرض غرامات وحظر النظام إذا لم تتخذ الشركة خطوات فورية. رئيس الوزراء البريطاني، كير ستارمر، دعا إلى ضرورة وقف إنتاج الصور المتعلقة بالأطفال، مشددًا على أهمية حماية الفئات الضعيفة.
نظام Grok، الذي يتميز بتصميمه الذي يمنح المستخدمين حرية أكبر في إنشاء المحتوى، كان قد وصفه ماسك بأنه نموذج يسعى لتحقيق الحقيقة. ومع ذلك، فإن ميزة إنشاء الصور ذات الإيحاءات أثارت قلقًا عامًا، مما جعل الحاجة إلى اتخاذ إجراءات صارمة أكثر إلحاحًا. وزيرة التكنولوجيا البريطانية، ليز كيندال، أكدت أن الهيئة التنظيمية Ofcom قد تلجأ إلى استخدام صلاحياتها لحظر النظام إذا استمرت هذه الانتهاكات.
في الولايات المتحدة، ثلاثة أعضاء في مجلس الشيوخ طالبوا شركتي أبل وجوجل بإزالة تطبيقي X وGrok من متاجر التطبيقات حتى معالجة المخالفات القانونية. بينما طلبت المفوضية الأوروبية الاحتفاظ بالوثائق الداخلية المتعلقة بالنظام حتى نهاية العام، وأبلغت السلطات الفرنسية النيابة العامة والهيئات الإعلامية بالمخالفات التي تم رصدها.
في منشور له على منصة X في 3 يناير، أكد ماسك أن أي شخص يستخدم Grok لإنشاء محتوى غير قانوني سيواجه نفس العقوبات المترتبة على نشر هذا المحتوى فعليًا. تعتبر هذه الحوادث جزءًا من أزمة عالمية تتعلق بالصور المنتجة بالذكاء الاصطناعي، حيث يسهل استخدام التكنولوجيا الحديثة لإنشاء صور عميقة غير قانونية. مؤسسة Internet Watch Foundation البريطانية أكدت أن مواد الأطفال المنتجة بالذكاء الاصطناعي تضاعفت خلال العام الماضي، مما يسلط الضوء على الحاجة الملحة لوضع تشريعات فعالة.
رغم إعلان xAI عن إزالة الصور غير القانونية للأطفال، تبقى المخاوف قائمة حول إمكانية تجاوز القيود الأمنية في أنظمة الذكاء الاصطناعي. القوانين المتعلقة بهذه التكنولوجيا لا تزال متفرقة وغير شاملة، مما يزيد من الحاجة الملحة لوضع أطر قانونية صارمة لمراقبة استخدام هذه التكنولوجيا. في هذا السياق، أقرّت الولايات المتحدة قانون Take It Down Act عام 2025 لمكافحة المواد الجنسية الانتقامية والصور العميقة، بينما تعمل المملكة المتحدة على تشريع يحظر إنتاج أو امتلاك أدوات الذكاء الاصطناعي لإنشاء صور للأطفال.
مع تزايد اهتمام القطاع الاستثماري بالذكاء الاصطناعي، تبرز أهمية اتخاذ خطوات جادة لحماية المجتمع من المخاطر المحتملة، مما يجعل قرار xAI خطوة أولى نحو معالجة هذه الأزمة.



