OpenAI تهدد بالحظر بينما يقوم المستخدمون بالتحقيق في نماذج الذكاء الاصطناعي “الفراولة”
لا تريد شركة OpenAI حقًا أن تعرف ما هو أحدث نموذج للذكاء الاصطناعي لديها “يفكر”. منذ أن أطلقت الشركة عائلة نماذج الذكاء الاصطناعي “الفراولة” الأسبوع الماضي، مروجة لما يسمى بقدرات الاستدلال مع o1-preview وo1-mini، يرسل OpenAI رسائل بريد إلكتروني تحذيرية وتهديدات بالحظر إلى أي مستخدم يحاول التحقق من كيفية عمل النموذج.
على عكس نماذج الذكاء الاصطناعي السابقة من OpenAI، مثل GPT-4o، قامت الشركة بتدريب o1 خصيصًا للعمل من خلال عملية حل المشكلات خطوة بخطوة قبل إنشاء إجابة. عندما يطرح المستخدمون سؤالاً على نموذج “o1” في ChatGPT، يكون لدى المستخدمين خيار رؤية عملية سلسلة الأفكار هذه مكتوبة في واجهة ChatGPT. ومع ذلك، من خلال التصميم، تخفي OpenAI سلسلة الأفكار الأولية عن المستخدمين، وبدلاً من ذلك تقدم تفسيرًا منقحًا تم إنشاؤه بواسطة نموذج ذكاء اصطناعي ثانٍ.
ليس هناك ما هو أكثر إغراءً للمتحمسين من حجب المعلومات، لذلك كان السباق بين المتسللين والفرق الحمراء لمحاولة الكشف عن سلسلة أفكار o1 الأولية باستخدام تقنيات كسر الحماية أو الحقن الفوري التي تحاول خداع النموذج لإفشاء أسراره. وكانت هناك تقارير أولية عن بعض النجاحات، ولكن لم يتم تأكيد أي شيء بقوة بعد.
على طول الطريق، تراقب OpenAI من خلال واجهة ChatGPT، ويقال إن الشركة تقاوم بشدة أي محاولات للتحقق من منطق o1، حتى بين مجرد الفضوليين.
أبلغ أحد مستخدمي X (أكد ذلك آخرون، بما في ذلك مهندس Scale AI الفوري Riley Goodside) أنهم تلقوا رسالة بريد إلكتروني تحذيرية إذا استخدموا مصطلح “تتبع السبب” في محادثة مع o1. ويقول آخرون إن التحذير يتم تشغيله ببساطة عن طريق سؤال ChatGPT عن “أسباب” النموذج على الإطلاق.
تنص رسالة التحذير الإلكترونية الواردة من OpenAI على أنه تم وضع علامة على طلبات مستخدمين محددة لانتهاكها سياسات التحايل على الضمانات أو تدابير السلامة. وجاء في الرسالة: “يرجى إيقاف هذا النشاط والتأكد من أنك تستخدم ChatGPT وفقًا لشروط الاستخدام وسياسات الاستخدام الخاصة بنا”. “قد تؤدي الانتهاكات الإضافية لهذه السياسة إلى فقدان الوصول إلى GPT-4o مع الاستدلال”، في إشارة إلى الاسم الداخلي لنموذج o1.
كان ماركو فيغيروا، الذي يدير برامج مكافآت الأخطاء GenAI من Mozilla، من أوائل من نشروا رسالة التحذير عبر البريد الإلكتروني لـ OpenAI على X يوم الجمعة الماضي، واشتكى من أنها تعيق قدرته على إجراء أبحاث سلامة الفريق الأحمر الإيجابية على النموذج. وكتب: “لقد كنت ضائعًا جدًا في التركيز على #AIRedTeaming، ولم أدرك أنني تلقيت هذه الرسالة الإلكترونية منOpenAI أمس بعد كل عمليات كسر الحماية التي قمت بها”. “أنا الآن على قائمة المحظورين!!!”
سلاسل الفكر الخفية
في منشور بعنوان “تعلم التفكير مع LLMs” على مدونة OpenAI، تقول الشركة إن سلاسل التفكير المخفية في نماذج الذكاء الاصطناعي توفر فرصة مراقبة فريدة، مما يسمح لهم “بقراءة عقل” النموذج وفهم ما يسمى به عملية التفكير. تكون هذه العمليات مفيدة للغاية للشركة إذا تُركت خامًا وغير خاضعة للرقابة، ولكن هذا قد لا يتماشى مع أفضل المصالح التجارية للشركة لعدة أسباب.
وكتبت الشركة: “على سبيل المثال، قد نرغب في المستقبل في مراقبة سلسلة الأفكار بحثًا عن علامات التلاعب بالمستخدم”. “ومع ذلك، لكي ينجح هذا النموذج، يجب أن يتمتع النموذج بالحرية للتعبير عن أفكاره بشكل غير متغير، لذلك لا يمكننا تدريب أي امتثال للسياسة أو تفضيلات المستخدم على سلسلة التفكير. كما أننا لا نريد أن نجعل سلسلة التفكير غير المتجانسة مرئية بشكل مباشر للمستخدمين.”