أنا لا أقنع الذكاء الاصطناعى الأخلاقي AI موجود حاليًا

هل هناك توليد أدوات الذكاء الاصطناعي التي يمكنني استخدامها والتي ربما تكون أكثر أخلاقية من غيرها؟
خيارات أفضل
لا ، لا أعتقد أن أي أداة منظمة العفو الدولية من اللاعبين الرئيسيين أكثر أخلاقية من أي أداة أخرى. هنا لماذا.
بالنسبة لي ، يمكن تقسيم أخلاقيات استخدام الذكاء الاصطناعى التوليدي إلى القضايا المتعلقة بكيفية تطوير النماذج – على وجه التحديد ، كيف تم الوصول إلى البيانات المستخدمة لتدريبها – وكذلك المخاوف المستمرة بشأن تأثيرها البيئي. من أجل تشغيل chatbot أو مولد صور ، يلزم وجود كمية فاحشة من البيانات ، والقرارات التي اتخذها مطورو القرارات في الماضي والاستمرار في جعل “الحصول على مستودع البيانات هذا مشكوك فيه ومحطمة في السرية. حتى ما يسميه الأشخاص في وادي السيليكون “نماذج المصدر المفتوحة” تخفي مجموعات بيانات التدريب في الداخل.
على الرغم من الشكاوى المقدمة من المؤلفين والفنانين والمخرجين ومبدعي YouTube ، وحتى فقط مستخدمي الوسائط الاجتماعية الذين لا يريدون أن يتم تجاهل منشوراتهم وتحولوا إلى حمأة chatbot ، فإن شركات الذكاء الاصطناع إخراجهم لاستخدامه كبيانات تدريب. أحد المطالبات المألوفة من مؤيدي الذكاء الاصطناعى هو الحصول على هذا مقدار البيانات الهائلة بموافقة البشر الذين صاغوا ذلك سيكون غير عملي للغاية وستعوق الابتكار. حتى بالنسبة للشركات التي أبرمت صفقات الترخيص مع الناشرين الرئيسيين ، فإن بيانات “Delean” هي جزء لا حصر له من الآلة الهائلة.
على الرغم من أن بعض devs يعملون على مقاربات لتعويض الأشخاص إلى حد ما عند استخدام عملهم لتدريب نماذج الذكاء الاصطناعى ، إلا أن هذه المشاريع تظل بدائل متخصصة إلى حد ما للسلع الرئيسية.
ثم هناك عواقب بيئية. التأثير البيئي الحالي لاستخدام الذكاء الاصطناعى التوليدي هو بالمثل عبر الخيارات الرئيسية. في حين أن الذكاء الاصطناعى التوليدي لا يزال يمثل شريحة صغيرة من الإجهاد الإجمالي للإنسانية على البيئة ، فإن أدوات برامج Gen-AI تتطلب طاقة أكثر إلى حد كبير لإنشاء وتشغيلها أكثر من نظرائها غير التنكسية. إن استخدام chatbot للمساعدة في البحث يساهم أكثر في أزمة المناخ أكثر من مجرد البحث في الويب في Google.
من الممكن أن يتم تخفيض كمية الطاقة المطلوبة لتشغيل الأدوات من الأساليب الجديدة مثل موارد الطاقة الثمينة النموذجة من Deepseek بدلاً من أن تكون شركات AI الكبيرة أكثر اهتمامًا بتسريع التطوير من التطوير التوقف عن النظر في النهج أقل ضررًا للكوكب.
كيف نجعل الذكاء الاصطناعي أكثر حكمة وأخلاقية بدلاً من أذكى وأكثر قوة؟
â € “الدماغ المجرة
شكرا لك على سؤالك الحكيم ، زميله البشري. قد يكون هذا المأزق موضوعًا شائعًا للمناقشة بين أولئك الذين يقومون ببناء أدوات الذكاء الاصطناعي أكثر مما تتوقع. على سبيل المثال ، نهج الأنثروبور “” دستوري “في محاولات chatbot Claude لغرس إحساسًا بالقيم الأساسية في الجهاز.
يتتبع الارتباك في قلب سؤالك كيف نتحدث عن البرنامج. في الآونة الأخيرة ، أصدرت العديد من الشركات نماذج تركز على “” Resextening “و” مقاربات الفكر “لأداء الأبحاث. وصف ما تفعله أدوات الذكاء الاصطناعى بالمصطلحات والعبارات البشرية يجعل الخط الفاصل بين الإنسان والآلة ضبابية غير ضرورية. أعني ، إذا كان النموذج يمكن أن يتسبب حقًا ولديه سلاسل من الأفكار ، فلماذا لن نتمكن من إرسال البرنامج إلى أسفل مسار التنوير الذاتي؟
لأنه لا يفكر. كلمات مثل التفكير والفكر العميق وفهم – تلك كلها مجرد طرق لوصف كيفية معالجة الخوارزمية المعلومات. عندما أتوقف عن أخلاقيات كيفية تدريب هذه النماذج والتأثير البيئي ، فإن موقفي لا يعتمد على دمج الأنماط التنبؤية أو النص ، بل هو مجموع تجاربي الفردية والمعتقدات الوثيقة.
الجوانب الأخلاقية لمخرجات الذكاء الاصطناعى ستعود دائمًا إلى مدخلاتنا البشرية. ما هي نية مطالبات المستخدم عند التفاعل مع chatbot؟ ماذا كانت التحيزات في بيانات التدريب؟ كيف قام Devs بتعليم الروبوت للرد على الاستفسارات المثيرة للجدل؟ بدلاً من التركيز على جعل الذكاء الاصطناعى نفسه أكثر حكمة ، فإن المهمة الحقيقية في متناول اليد هي زراعة ممارسات التطوير الأخلاقي وتفاعلات المستخدم.
اكتشاف المزيد من مدونة الواحة
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.