حذّر تقرير صدر قبل أيام من مخاطر شديدة تحيط بتطوير بعض نماذج الذكاء الاصطناعي المتطورة، تشمل دمار المجتمعات وانهيار الديمقراطية وصولاً إلى إنتاج أسلحة تستهدف البشر ولا يمكن السيطرة عليها.
رسم تقرير جديد صورة مثيرة للقلق بشأن مخاطر الأمن القومي الكارثية التي يفرضها الذكاء الاصطناعي سريع التطور، محذراً من أن الوقت ينفد أمام العالم لتجنب وقوع الكارثة.
واستندت نتائج التقرير الذي تم بتكليف من وزارة الخارجية الأمريكية إلى مقابلات أجريت مع أكثر من 200 شخص على مدار أكثر من عام، بما في ذلك كبار المسؤولين التنفيذيين من شركات الذكاء الاصطناعي الرائدة، وباحثين في مجال الأمن السيبراني، وخبراء أسلحة الدمار الشامل، ومسؤولي الأمن القومي داخل الحكومة، بحسب ما نقل موقع شبكة سي ان ان.
تهديد على مستوى الانقراض
ويشير التقرير، الذي صدر هذا الأسبوع، بشكل قاطع إلى أن أنظمة الذكاء الاصطناعي الأكثر تقدماً من البشر يمكن في أسوأ الحالات أن تشكل تهديداً على مستوى الانقراض للجنس البشري، بحسب ما ذكرت مجموعة غلادستون للذكاء الاصطناعي التي أعدت التقرير.
يذكر أن غلادستون للذكاء الاصطناعي تضم خبراء في الأمن القومي ومديرين تنفيذيين ذوي خبرة في وادي السيليكون في مجال الذكاء الاصطناعي، وتقدم المجموعة استشارات لمجتمعات الأمن والدفاع القومي الأمريكية بشأن التعامل مع الفرص والمخاطر التي تأتي مع قدرات الذكاء الاصطناعي غير المسبوقة والمتسارعة.
ويعد التحذير الوارد في التقرير بمثابة تذكير آخر بأنه رغم أن إمكانات الذكاء الاصطناعي لا تزال تأسر المستثمرين والجمهور، فإن هناك مخاطر حقيقية أيضاً تحيط به.
وقال جيريمي هاريس، الرئيس التنفيذي والمؤسس المشارك لمجموعة غلادستون إن الذكاء الاصطناعي هو تكنولوجيا خارقة يمكن أن تسمح لنا بشفاء الأمراض، وتحقيق الاكتشافات العلمية، والتغلب على التحديات التي اعتقدنا ذات يوم أنه لا يمكن التغلب عليها.
أدلة على تزايد المخاطر
واستدرك هاريس قائلاً لكن هذه التقنية قد تجلب أيضاً مخاطر جسيمة، بما في ذلك المخاطر الكارثية، التي يجب أن نكون على دراية بها، مضيفاً أن مجموعة متزايدة من الأدلة – بما في ذلك الأبحاث والتحليلات التجريبية المنشورة في أهم مؤتمرات الذكاء الاصطناعي في العالم – تشير إلى أنه عند تخطي حد معين من القدرة، فإنه من المحتمل أن تصبح أنظمة الذكاء الاصطناعي خارجة عن السيطرة.
وبالعودة إلى التقرير، فإن الضغوط التنافسية تدفع الشركات إلى تسريع تطوير الذكاء الاصطناعي على حساب السلامة والأمن، ما يزيد من احتمال “سرقة” أنظمة الذكاء الاصطناعي الأكثر تقدماً و”تسليحها” ضد الولايات المتحدة.
ومنذ ما يقرب من عام، استقال جيفري هينتون، المعروف باسم الأب الروحي للذكاء الاصطناعي، من وظيفته في شركة غوغل وأطلق جرس الإنذار بشأن التكنولوجيا التي ساعد في تطويرها. وقال هينتون إن هناك فرصة بنسبة 10 بالمئة أن يؤدي الذكاء الاصطناعي إلى انقراض الإنسان خلال العقود الثلاثة المقبلة.
قدرات شبه بشرية
وأشار التقرير أيضاً إلى بعض الشخصيات البارزة التي حذرت من المخاطر الوجودية التي يشكلها الذكاء الاصطناعي، بما في ذلك إيلون ماسك رئيس شركة سبيس إكس وموقع “إكس”، ورئيسة لجنة التجارة الفيدرالية لينا خان، والمسؤول التنفيذي الأول السابق في شركة اوبن إيه آي.
ويشارك بعض الموظفين في شركات الذكاء الاصطناعي مخاوف مماثلة، إذ جاء في التقرير أن أحد الأفراد بمختبر للذكاء الاصطناعي أعرب عن خشيته من إطلاق نموذج محدد من الجيل التالي للذكاء الاصطناعي من النوع مفتوح المصدر وهو أمر سيئ للغاية، لأن أحد نتائج تطوير هذا النموذج ستكون دمار الديمقراطية إذا تم الاستفادة منه في مجالات مثل التدخل في الانتخابات أو التلاعب بالناخبين.
وأشار التقرير أيضاً إلى مخاوف خبراء من احتمال أن يؤدي تخطي الذكاء الاصطناعي للحاجز البشري المفروض حالياً إلى آثار عالمية لا رجعة فيها خاصة مع نموذج الذكاء الاصطناعي العام (AGI)، وهو شكل افتراضي من الذكاء الاصطناعي يتمتع بقدرة على التعلم تشبه قدرة الإنسان وربما يفوق قدرات وطاقة البشر.
مخاوف من فقدان السيطرة
وينظر إلى الذكاء الاصطناعي العام على أنه المحرك الرئيسي للمخاطر الكارثية الناجمة عن فقدان السيطرة، ويشير إلى أن كبرى شركات التقنية تحدثت عن إمكانية الوصول إلى الذكاء الاصطناعي العام بحلول عام 2028 على الرغم من أن آخرين يعتقدون بأن الأمر قد يستغرق وقتاً أطول بكثير، بحسب ما نشر موقع صحيفة نيويورك تايمز.
وتحذر وثيقة سابقة نشرتها مجموعة غلادستون من أن تطوير الذكاء الاصطناعي العام والقدرات التي تقترب من مستواه من شأنه أن يؤدي إلى مخاطر كارثية على عكس أي شيء واجهه العالم على الإطلاق، وتصل إلى مخاطر تشبه أسلحة الدمار الشامل، وفق ما نشر موقع مجلة التايم.
على سبيل المثال، ذكر التقرير أنه يمكن استخدام أنظمة الذكاء الاصطناعي لتصميم وتنفيذ هجمات إلكترونية عالية التأثير قادرة على شل البنية التحتية الحيوية، وأن أمراً شفهياً أو كتابياً بسيطاً مثل، تنفيذ هجوم إلكتروني لا يمكن تعقبه لتعطيل شبكة الكهرباء في أمريكا الشمالية، يمكن أن يؤدي إلى استجابة من النوعية التي تثبت فعاليتها بشكل كارثي.
تشمل الأمثلة الأخرى التي يشعر الخبراء الذين أعدوا التقرير بالقلق بشأنها حملات التضليل واسعة النطاق المدعومة بالذكاء الاصطناعي والتي تعمل على زعزعة استقرار المجتمعات وتقويض الثقة في المؤسسات؛ إلى جانب التطبيقات الآلية المسلحة مثل هجمات تشنها الطائرات من دون طيار؛ والتلاعب النفسي واستغلال العلوم البيولوجية في إنتاج أسلحة مميتة؛ بجانب أنظمة الذكاء الاصطناعي التي تبحث عن القوة وتعادي البشر ويكاد يكون من المستحيل السيطرة عليها .
الذكاء الاصطناعي قد يؤدي لانقراض البشر خلال 30 سنة!
- إسحق القس افرام
- مدير الموقع
- مشاركات: 49244
- اشترك في: السبت إبريل 17, 2010 8:46 am
- مكان: السويد
الذكاء الاصطناعي قد يؤدي لانقراض البشر خلال 30 سنة!
مشاركة بواسطة إسحق القس افرام »
فَحَاشَا لِي أَنْ أَفْتَخِرَ إِلاَّ بِصَلِيبِ رَبِّنَا يَسُوعَ الْمَسِيحِ
العودة إلى ”܀ أخبـــار عامــــة ـ دوليــــــــــــة“
الانتقال إلى
- القنــــوات الفضــــائية الســــورية العامة والخاصة
- ↲ القنــــوات الفضــــائية الســــورية
- ↲ قنــــــــــــــــــــــــــــاة ســــــــــــــــــــــــــــــــــما الســــــــــــــــــــــــورية
- القسم العام
- ↲ كرنافال المالكية
- ↲ ܀ أخبار محلية!
- ↲ أخبار شعبنا
- ↲ أخبار شعبنا في المهجر
- ↲ أخبار شعبنا في ديريك
- ↲ أخبار شعبنا في قبري حيوري
- ↲ أخبار شعبنا في القامشلي
- ↲ أخبار الأبرشيات
- ↲ ܀ أخبـــار عامــــة ـ دوليــــــــــــة
- ↲ ܀ اقرأ كل يوم حكمة جديدة!
- ↲ ܀ قهـوة ديـريـك ديـلان
- ↲ منتدى النكت والطرف والحزازير
- ↲ أقوال مأثورة وحكم
- ↲ منتدى الترحيب بالأعضاء الجدد
- ↲ التعارف ، المقابلا ت والحوار
- ↲ منتدى الآراء والاقتراحات
- ↲ ܀ منتدى المنبر الحر
- ↲ ܀ حــــول الــعـالـــم ـ منـــوعــــات ـ غـــــرائــــب
- قسم الأفراح والأحزان
- ↲ منتدى التهاني بالأعراس والخطوبة
- ↲ منتدى التهاني بالمعمودية والولادات الجديدة
- ↲ منتدى التهاني بأعياد الميلاد
- ↲ ܀ منتدى التهاني المنوعة، مناسبات أخرى
- ↲ منتدى التعازي والــــوفيـــــات
- ↲ ܀ اشعل شمعة
- قسم المسيحيات
- ↲ آية وحكمة اليوم
- ↲ ܀ طقسيات لأيــام الآحـــــاد & الأعيـــاد
- ↲ الاشحيم
- ↲ ܀܀܀ كتاب الاشحيم ܀܀܀
- ↲ ܀܀܀ صلوات الاشحيم ܀܀܀
- ↲ ܀ زوادة اليـــوم
- ↲ السنسكسار السرياني
- ↲ السنكسار السرياني ܩܽܘܕܺܝܩܽܘܣ لشهر ايلول
- ↲ السنكسار السرياني ܩܽܘܕܺܝܩܽܘܣ لشهر تشرين الأول
- ↲ ܀ كل يوم قصة هادفة
- ↲ مواضيع دينية وروحية
- ↲ طلب صلوات وتضرعات
- ↲ سير ومعجزات القديسين
- ↲ مسابقات واختبارات
- ↲ ܀ منتدى المرشد الروحي للأب الربّان رابولا صومي.
- القسم الرياضي
- ↲ الرياضة السريانية
- ↲ الرياضة السورية
- ↲ الرياضة العربية
- ↲ الرياضة الدولية
- ↲ منتدى كأس العالم
- قسم السريانيات
- ↲ منتدى تعليم اللغة السريانية
- ↲ ܀ منتدى ابن السريان
- ↲ ܀ المكتبة السريانية
- ↲ منتدى الأدب والتراث السرياني
- ↲ منتدى مشاهير السريان
- ↲ منتدى أمكنة ومواقع سريانية
- ↲ منتدى عادات وتقاليد شعبنا
- ↲ رجال ونساء من شعبنا
- ↲ ܀ أزخينيات
- ↲ ܀ منتدى المرشد الروحي للأب الربّان بولس خانو
- القسم الأدبي
- ↲ ܀ حـــدث فـــى مثـــل هـــذا الـــيوم!
- ↲ المنتدى الأدبي
- ↲ منتدى الكتب والكتّاب والقراء
- ↲ منتدى أدباء السريان
- ↲ منتدى الكاتب والراوي فريد توما مراد
- ↲ الشاعرة والاديبة السريانية بنت السريان
- ↲ منتدى الشعر
- ↲ منتدى الأدب
- ↲ ܀ منتدى الشاعر توما بيطار
- ↲ ܀ منتدى الأديب وديع القس
- ↲ ܀ منتدى الاديب والشاعر القس جوزيف ايليا
- ↲ ܀ منتدى الاديب والشاعر الازخيني فؤاد زاديكه
- ↲ ܀ المنتدى الثقافي
- قسم الأسرة والمجتمع
- ↲ ܀ منتدى الجمال والاناقة
- ↲ منتدى الطفل
- ↲ ܀ منـــتدى صحتـــــك بالـــدنـــيا
- ↲ ܀ منتدى الرجال
- ↲ منتدى المجتمع
- ↲ ܀ مطبخ ديريك ديلان العالمي
- ↲ ܀ حــــــلـــول ذكيـــــــــــــية
- قسم العلوم والتكنولوجيا
- ↲ المنتدى التجاري والاقتصادي
- ↲ ܀ منتدى مــال واعمــال & أخبـــار ـ اسـواق وبوصات
- ↲ ܀ منتــدى عــالــم السيــارات
- ↲ ܀ منتدى الإرشادات والنصائح الطبية ـ جديد الطب
- ↲ منتدى الكومبيوتر والإنترنيت والموبايل & أجهـــزة
- ↲ منتدى التقنية والتكتولوجيا
- ↲ ܀ أضـــف لمعــــــلومـــاتك
- قسم الفنون الجميلة
- ↲ الفن والفنانين
- ↲ منتدى الفن والرسم
- ↲ ܀ منتـــــدى السيـــــاحة والســــــفر
- ↲ ܀ فرقة حسان باند الموسيقية
- القسم القانوني
- ↲ منتدى القوانين و الأحكام
- ↲ منتدى أحكام وأخبار المحاكم
- Language Forums
- ↲ Forum English
- ↲ Deutsch Forum
- ↲ Svenska forum