Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تكنولوجيا

إن سوء استخدام الإنسان سيجعل الذكاء الاصطناعي أكثر خطورة


يتوقع سام ألتمان، الرئيس التنفيذي لشركة OpenAI، أن يكون العام 2027 أو 2028 هو الذكاء الاصطناعي العام، أو الذكاء الاصطناعي العام – الذكاء الاصطناعي الذي يتفوق على البشر في معظم المهام – بحلول عام 2027 أو 2028. وتوقع إيلون موسك أن يكون عام 2025 أو 2026، وقد ادعى أنه “يفقد النوم بسبب خطر الذكاء الاصطناعي”. “. مثل هذه التوقعات خاطئة. مع تزايد وضوح حدود الذكاء الاصطناعي الحالي، توصل معظم الباحثين في مجال الذكاء الاصطناعي إلى وجهة نظر مفادها أن مجرد بناء روبوتات محادثة أكبر وأقوى لن يؤدي إلى الذكاء الاصطناعي العام.

ومع ذلك، في عام 2025، سيظل الذكاء الاصطناعي يشكل خطراً هائلاً: ليس من الذكاء الاصطناعي الفائق، ولكن من سوء الاستخدام البشري.

وقد تكون هذه حالات إساءة استخدام غير مقصودة، مثل اعتماد المحامين بشكل مفرط على الذكاء الاصطناعي. بعد إطلاق ChatGPT، على سبيل المثال، تمت معاقبة عدد من المحامين لاستخدامهم الذكاء الاصطناعي لإنشاء إحاطات قضائية خاطئة، ويبدو أنهم غير مدركين لميل روبوتات الدردشة إلى اختلاق الأشياء. وفي كولومبيا البريطانية، أُمرت المحامية تشونغ كي بدفع تكاليف المحامي المعارض بعد أن أدرجت قضايا وهمية أنشأها الذكاء الاصطناعي في ملف قانوني. وفي نيويورك، تم تغريم ستيفن شوارتز وبيتر لودوكا مبلغ 5000 دولار لتقديمهما استشهادات كاذبة. في كولورادو، تم إيقاف زكريا كرابيل عن العمل لمدة عام لاستخدامه قضايا قضائية وهمية تم إنشاؤها باستخدام ChatGPT وإلقاء اللوم على “المتدرب القانوني” في الأخطاء. القائمة تنمو بسرعة.

إساءة الاستخدام الأخرى متعمدة. في يناير 2024، غمرت التزييفات العميقة الجنسية الصريحة لتايلور سويفت منصات وسائل التواصل الاجتماعي. تم إنشاء هذه الصور باستخدام أداة الذكاء الاصطناعي “Designer” من Microsoft. في حين أن الشركة كانت لديها حواجز حماية لتجنب إنشاء صور لأشخاص حقيقيين، فإن الخطأ الإملائي في اسم Swift كان كافيًا لتجاوزها. قامت Microsoft منذ ذلك الحين بإصلاح هذا الخطأ. لكن تايلور سويفت ما هي إلا قمة جبل الجليد، وتنتشر التزييفات العميقة غير التوافقية على نطاق واسع، ويعود ذلك جزئيًا إلى توفر أدوات مفتوحة المصدر لإنشاء التزييفات العميقة بشكل عام. تسعى التشريعات الجارية في جميع أنحاء العالم إلى مكافحة التزييف العميق على أمل الحد من الضرر. ما إذا كان فعالا يبقى أن نرى.

وفي عام 2025، سيكون من الصعب التمييز بين ما هو حقيقي وما هو مختلق. تعد دقة الصوت والنصوص والصور التي يتم إنشاؤها بواسطة الذكاء الاصطناعي رائعة، وسيكون الفيديو هو التالي. وقد يؤدي هذا إلى “ربح الكاذب”: أولئك الذين في مناصب السلطة يتنكرون للأدلة على سوء سلوكهم من خلال الادعاء بأنها مزيفة. في عام 2023، جادلت تسلا بأن مقطع فيديو لعام 2016 لإيلون موسك كان من الممكن أن يكون مزيفًا ردًا على مزاعم بأن الرئيس التنفيذي قد بالغ في سلامة الطيار الآلي لشركة تسلا مما أدى إلى وقوع حادث. ادعى سياسي هندي أن مقاطع صوتية له يعترف فيها بالفساد في حزبه السياسي تم التلاعب بها (تم التحقق من صحة الصوت الموجود في واحد على الأقل من مقاطعه من خلال منفذ صحفي). وادعى اثنان من المتهمين في أعمال الشغب التي جرت في 6 يناير/كانون الثاني أن مقاطع الفيديو التي ظهروا فيها كانت مزيفة بعمق. تم العثور على كلاهما مذنبا.

وفي الوقت نفسه، تستغل الشركات الارتباك العام لبيع منتجات مشكوك فيها في الأساس من خلال تصنيفها على أنها “ذكاء اصطناعي”. يمكن أن يحدث هذا خطأً فادحًا عندما يتم استخدام مثل هذه الأدوات لتصنيف الأشخاص واتخاذ قرارات تبعية بشأنهم. على سبيل المثال، تدعي شركة التوظيف ريتوريو أن الذكاء الاصطناعي الخاص بها يتنبأ بمدى ملاءمة المرشحين للوظيفة بناءً على مقابلات الفيديو، لكن دراسة وجدت أنه يمكن خداع النظام ببساطة عن طريق وجود نظارات أو عن طريق استبدال خلفية عادية برف كتب، مما يوضح أنه يعتمد على الارتباطات السطحية.

هناك أيضًا العشرات من التطبيقات في مجالات الرعاية الصحية والتعليم والمالية والعدالة الجنائية والتأمين حيث يتم استخدام الذكاء الاصطناعي حاليًا لحرمان الناس من فرص الحياة المهمة. وفي هولندا، استخدمت هيئة الضرائب الهولندية خوارزمية الذكاء الاصطناعي لتحديد الأشخاص الذين ارتكبوا عمليات احتيال تتعلق برعاية الأطفال. واتهمت خطأً آلاف الآباء، وطالبت في كثير من الأحيان بسداد عشرات الآلاف من اليورو. وفي أعقاب ذلك، استقال رئيس الوزراء وحكومته بأكملها.

في عام 2025، نتوقع أن تنشأ مخاطر الذكاء الاصطناعي ليس من عمل الذكاء الاصطناعي من تلقاء نفسه، ولكن بسبب ما يفعله الناس به. ويشمل ذلك الحالات التي يبدو للعمل بشكل جيد ويتم الاعتماد عليه بشكل مفرط (المحامون الذين يستخدمون ChatGPT)؛ عندما يعمل بشكل جيد ويتم إساءة استخدامه (التزييف العميق غير التوافقي وأرباح الكذاب)؛ وعندما لا يكون ذلك مناسبًا للغرض (حرمان الناس من حقوقهم). ويشكل التخفيف من هذه المخاطر مهمة ضخمة بالنسبة للشركات والحكومات والمجتمع. سيكون الأمر صعبًا بما فيه الكفاية دون تشتيت انتباهك بمخاوف الخيال العلمي.


اكتشاف المزيد من مدونة الواحة

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من مدونة الواحة

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading