خبراء التكنلوجيا: الذكاء الاصطناعي قد يعرض البشرية الى الانقراض

206 مشاهدة
10:16 - 2023-06-01
أخبار منوعة


الداعي نيوز / متابعة


حذرت مجموعة من كبار الخبراء والمديرين التنفيذيين من أن تكنولوجيا الذكاء الاصطناعي تشكل "خطر انقراض" على البشرية، في بيان مشترك مقلق صدر يوم الثلاثاء.

فبحسب بيان نشره موقع المؤسسة غير الربحية Center for AI Safety، فإن أكثر من 350 شخصية بارزة في مجال الذكاء الاصطناعي، بينهم رئيس شركة OpenAI، سام ألتمان، الذي أنشأت شركته ChatGPT، و"الأب الروحي للذكاء الاصطناعي" جيفري هينتون، يعتبرون الذكاء الاصطناعي تهديدا وجوديا للبشرية.

وقال الخبراء في البيان المؤلف من جملة واحدة: "يجب أن يكون التخفيف من خطر الانقراض من جراء  الذكاء الاصطناعي أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية".

ويعد هذا البيان الموجز هو الأحدث في سلسلة من التحذيرات من كبار الخبراء في ما يتعلق بإمكانية الذكاء الاصطناعي لإثارة الفوضى في المجتمع، مع المخاطر المحتملة بما في ذلك انتشار المعلومات المضللة والاضطراب الاقتصادي الكبير من خلال فقدان الوظائف أو حتى الهجمات المباشرة على الإنسانية.

ويأتي هذا البيان في وقت تتزايد فيه المخاوف بشأن الأضرار المحتملة للذكاء الاصطناعي، في أعقاب الشعبية الجامحة لـChatGPT من OpenAI.
وقال مركز Center for AI Safety إن الهدف من البيان الموجز هو "فتح نقاش" حول الموضوع بالنظر إلى "مجموعة واسعة من المخاطر المهمة والعاجلة من الذكاء الاصطناعي".

وإلى جانب ألتمان وهينتون، كان من بين الموقعين البارزين على البيان الرئيس التنفيذي لشركة Google DeepMind ديميس هاسابيس، وقائد مختبر الذكاء الاصطناعي البارز الآخر، الرئيس التنفيذي لشركة Anthropic داريو أمودي.

وصرح دان هندريكس، المدير التنفيذي لمركز Center for AI Safety قائلا: "التخفيف من خطر الانقراض من الذكاء الاصطناعي سيتطلب إجراءات عالمية. لقد تعاون العالم بنجاح للتخفيف من المخاطر المتعلقة بالحرب النووية. وهناك حاجة إلى نفس المستوى من الجهد لمواجهة المخاطر التي تشكلها أنظمة الذكاء الاصطناعي المستقبلية".

وأضاف: "هناك العديد من المخاطر المهمة والعاجلة المتأتية من الذكاء الاصطناعي، وليس فقط خطر الانقراض. على سبيل المثال، التحيز المنهجي، والمعلومات المضللة، والاستخدام الخبيث، والهجمات الإلكترونية، والتسليح، وهذه جميعها مخاطر مهمة يجب معالجتها".

اختيار المحررين