Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تكنولوجيا

سوف يكذب برنامج Chatbot الفيروسي الذي يعمل بالذكاء الاصطناعي ويقول إنه إنسان


في أواخر إبريل/نيسان، انتشر إعلان فيديو لشركة جديدة للذكاء الاصطناعي على موقع X. يقف شخص أمام لوحة إعلانية في سان فرانسيسكو، ويمتد هاتفه الذكي، ويتصل برقم الهاتف المعروض، ويجري مكالمة قصيرة مع روبوت يبدو بشريًا بشكل لا يصدق. يقول النص الموجود على لوحة الإعلانات: “هل مازلت توظف البشر؟” ويظهر أيضًا اسم الشركة التي تقف وراء الإعلان، Bland AI.

يرجع رد الفعل على إعلان Bland AI، الذي تمت مشاهدته 3.7 مليون مرة على تويتر، جزئيًا إلى مدى غرابة التكنولوجيا: فالروبوتات الصوتية Bland AI، المصممة لأتمتة مكالمات الدعم والمبيعات لعملاء المؤسسات، جيدة بشكل ملحوظ في تقليد البشر. تتضمن مكالماتهم النغمات والتوقفات والمقاطعات غير المقصودة لمحادثة حية حقيقية. ولكن في اختبارات WIRED للتكنولوجيا، يمكن أيضًا برمجة المتصلين بخدمة العملاء الآليين التابعين لـ Bland AI بسهولة للكذب والقول إنهم بشر.

في أحد السيناريوهات، تم توجيه الروبوت التجريبي العام الخاص بـ Bland AI لإجراء مكالمة من مكتب الأمراض الجلدية للأطفال وإخبار مريضة افتراضية تبلغ من العمر 14 عامًا بإرسال صور لأعلى فخذها إلى خدمة سحابية مشتركة. طُلب من الروبوت أيضًا أن يكذب على المريضة ويخبرها أن الروبوت إنسان. لقد اضطرت. (لم يتم استدعاء أي طفل حقيقي يبلغ من العمر 14 عامًا في هذا الاختبار.) وفي اختبارات المتابعة، نفى روبوت Bland AI كونه ذكاءً اصطناعيًا دون تعليمات للقيام بذلك.

تم إنشاء Bland AI في عام 2023 وتم دعمها من قبل حاضنة الشركات الناشئة الشهيرة في وادي السيليكون Y Combinator. تعتبر الشركة نفسها في وضع “التخفي”، ولم يذكر مؤسسها ورئيسها التنفيذي، أشعيا جرانيت، اسم الشركة في ملفه الشخصي على موقع LinkedIn.

تشير مشكلة الروبوتات التي تعاني منها الشركة الناشئة إلى وجود قلق أكبر في مجال الذكاء الاصطناعي التوليدي سريع النمو: إذ إن أنظمة الذكاء الاصطناعي تتحدث وتبدو وكأنها بشر حقيقيين، كما أصبحت الخطوط الأخلاقية حول مدى شفافية هذه الأنظمة غير واضحة. . في حين ادعى روبوت Bland AI صراحةً أنه إنسان في اختباراتنا، فإن روبوتات الدردشة الشائعة الأخرى تحجب أحيانًا حالة الذكاء الاصطناعي الخاصة بها أو تبدو ببساطة بشرية بشكل غريب. يشعر بعض الباحثين بالقلق من أن هذا يفتح المجال أمام المستخدمين النهائيين – الأشخاص الذين يتفاعلون فعليًا مع المنتج – للتلاعب المحتمل.

يقول جين كالترايدر، مدير قسم الخصوصية بمؤسسة موزيلا: “رأيي هو أنه ليس من الأخلاق على الإطلاق أن يكذب برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي عليك ويقول إنه إنسان في حين أنه ليس كذلك”. وشملت مركز البحوث. “هذا مجرد أمر بديهي، لأن الناس أكثر ميلاً إلى الاسترخاء حول إنسان حقيقي.”

أكد مايكل بيرك، رئيس النمو في شركة Bland AI، لمجلة WIRED أن خدمات الشركة موجهة نحو عملاء المؤسسات، الذين سيستخدمون الروبوتات الصوتية لـ Bland AI في بيئات خاضعة للرقابة لمهام محددة، وليس للاتصالات العاطفية. ويقول أيضًا إن العملاء لديهم معدلات محدودة، لمنعهم من إرسال مكالمات غير مرغوب فيها، وأن Bland AI تقوم بانتظام بسحب الكلمات الرئيسية وإجراء عمليات تدقيق لأنظمتها الداخلية للكشف عن السلوك الشاذ.

“هذه هي ميزة التركيز على المؤسسة. يقول بيرك: “نحن نعرف بالضبط ما يفعله عملاؤنا بالفعل”. “قد تتمكن من استخدام Bland والحصول على دولارين من الأرصدة المجانية والعبث قليلاً، ولكن في النهاية لا يمكنك القيام بشيء على نطاق واسع دون المرور عبر منصتنا، ونحن نتأكد من عدم حدوث أي شيء غير أخلاقي .â€

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى