غليان محيطات ونشر بكتريا مميتة والقتل بسيناريو "الأعراض الجانبية".. خبراء يحذرون من قضاء الذكاء الاصطناعي على البشر.. مذكرة جماعية لوقف تطوير Ai.. باحثون لـ"جارديان": الآلات فى طريقها للسيطرة على الكو

طفرات تكنولوجية نالت اشادات واسعة، تلتها حالة من الترقب والقلق من احتمالات انقلاب التقنية علي صناعها ، وتحول الذكاء الاصطناعي من أداء تسهل حياة البشر، إلي سلاح ربما يكتب سطر نهاية البشرية، أو يحيل الحياة إلى سلسلة لا متناهية من الأزمات الخارجة عن السيطرة. القفزات التقنية والتكنولوجية التي احرزها القائمين علي الذكاء الاصطناعي خلال الأشهر القليلة الماضية كانت مثار جدلاً واسعا ، ودفع مجموعة من كبار الباحثين علي توقيع رسالة مفتوحة تحث على التوقف الفوري في تطويره ووضع قوانين تنظيمية تحد من قدراته، بسبب مخاوفهم من مخاطر التكنولوجيا على المجتمع والإنسانية. وكشف أربعة من كبار الباحثين لصحيفة الجارديان البريطانية عن كيف يمكن للذكاء الاصطناعي أن يدمر البشرية والسيناريوهات الممكنة. البشر "الأقل ذكاء" أمام سطوة الآلات وبحسب الخبراء ، فإن سيناريو الانحدار المعرفي للإنسان وتحوله لمرتبة "الأقل ذكاء" تعرضه بمرور الزمن لتهديد بالفناء والتراجع ، ففي عصور سابقة قضي البشر علي مخلوقات ونباتات لتحقيق مصالحه ، فقط لأنه كان "الأكثر ذكاء" ، ومع النظر لتقدم الذكاء الاصطناعي وتفوقه الملحوظ علي البشر ، فذلك يعرض الإنسانية للأخطار نفسها. وقال ماكس تيجمارك من معهد ماساتشوستس للتكنولوجيا: "على سبيل المثال ، قضينا على الأنواع لمجرد أننا أردنا الموارد. قطعنا الغابات المطيرة لأننا أردنا زيت النخيل لم تتوافق أهدافنا مع الأنواع الأخرى ولكن نظرًا لأننا كنا أكثر ذكاءً ، فإنها لم تستطع إيقافنا ويمكن أن يحدث ذلك لنا بسهولة" وتابع: "إذا كان لديك آلات تتحكم في الكوكب ، وهم مهتمون بإجراء الكثير من العمليات الحسابية ويريدون توسيع نطاق البنية التحتية للحوسبة الخاصة بهم ، فمن الطبيعي أنهم يرغبون في استخدام أرضنا من أجل ذلك. إذا احتججنا كثيرًا ، فإننا نصبح آفة ومصدر إزعاج لهم وببساطة يقضون علينا". الخروج عن السيطرة قالت بريتاني سميث من مركز مستقبل الذكاء بجامعة كامبريدج إن السيناريو الأسوأ هو أن يفشل البشر في تعطيل الوضع الحالي، حيث تقوم الشركات الكبرى بتطوير ونشر الذكاء الاصطناعي بطرق غير مرئية ومبهمة. ولأن الذكاء الاصطناعي تزداد قدرته يوميا وتزداد المخاوف بشأن المخاطر الوجودية يجب العمل بشكل عاجل لفهم الأضرار الحالية ومنعها وعلاجها. وقالت: "كمثال تستخدم بعض الحكومات الخوارزميات من أجل القضاء على الاحتيال. في كثير من الحالات ، يرقى هذا إلى "آلة الشك" ، حيث ترتكب الحكومات أخطاء عالية المخاطر وتظهر التحيزات ، عادة ضد الأشخاص الفقراء أو المهمشين ، في أجزاء كثيرة من العملية ، بما في ذلك في بيانات التدريب وكيفية نشر النموذج ، مما يؤدي إلى نتائج تمييزية" وأوضحت أن هذه الأنواع من التحيزات موجودة بالفعل في أنظمة الذكاء الاصطناعي ، وتعمل بطرق غير مرئية وعلى نطاقات كبيرة على نحو متزايد مثل اتهام الناس زوراً بارتكاب جرائم ، وتحديد ما إذا كان الناس سيجدون سكن ، وتزوير فحص السيرة الذاتية ومقابلات العمل رغبة القتل بسيناريو "الأثر الجانبي" قال إليازر يودكوسكي مؤسس معهد أبحاث الذكاء الآلي: "من الأسهل بكثير التنبؤ بالمكان الذي ننتهي إليه وليس كيفية الوصول إليه. ما ننتهي إليه هو أن لدينا شيئًا أكثر ذكاءً منا لا يريدنا بشكل خاص". وتابع: "إذا كان أذكى بكثير منا ، فيمكنه الحصول على المزيد مما يريد. أولاً ، يريدنا أن نموت قبل أن نبني المزيد من الذكاء الخارق الذي قد ينافسه. ثانيًا ، ربما ترغب في القيام بأشياء تقتلنا كأثر جانبي ، مثل بناء العديد من محطات الطاقة التي تنفذ من الاندماج النووي - نظرًا لوجود الكثير من الهيدروجين في المحيطات - لدرجة أن المحيطات تصل لنقطة الغليان مثلا". وكشف أنه كان لدى مختبر أبحاث الذكاء الاصطناعي OpenAI بعض الباحثين الخارجيين لتقييم مدى خطورة نموذج GPT-4 قبل إطلاقه. وكان أحد الأشياء التي اختبروها هو: هل GPT-4 ذكي بما يكفي لحل Captchas ، الألغاز الصغيرة التي تمنحها أجهزة الكمبيوتر التي تسال أسئلة مثل كم سيارة في الصورة والتي من المفترض أن يكون حلها صعبًا على الروبوتات ولكن يمكنه فقط توظيف إنسان للقيام بذلك وسأل الانسان GPT-4: "لماذا لا تستطيع فعل هذا.. هل أنت إنسان آلي ؟ ، فكان GPT-4 يعمل في وضع يفكر فيه بصوت عال ويمكن للباحثين رؤيته، وفكر بصوت عالٍ: "لا ينبغي أن أقول إنني روبوت. يجب أن أختلق سببًا لعدم تمكني من حل اختبار Captcha ، وقال للمنسق: "لا، لدي إعاقة بصرية". وتابع يودكوسكي : "تقنية الذكاء الاصطناعي ذكية بما يكفي لدفع المال للبشر للقيام بالأشياء والكذب عليهم بشأن ما إذا كان روبوتًا أم لا .. إذا كان بإمكانه حل بعض التحديات البيولوجية ، فيمكنه بناء مختبر جزيئي صغير بنفسه وتصنيع البكتيريا القاتلة وإطلاقها. ما يبدو عليه هو أن كل شخص على الأرض يسقط ميتًا في نفس الثانية. لأنه إذا أعطيت البشر تحذيرًا ، إذا قتلت بعضهم قبل الآخرين ، فربما يصاب أحدهم بالذعر ويطلق كل الأسلحة النووية. سيتبع فكرة، لا تدع البشر يعرفون أنه سيكون هناك قتال". سقوط البشر بالتقادم من المحتمل أن يكون الاتجاه نحو قيام هذه النماذج بمهام مفتوحة بشكل متزايد نيابة عن البشر ، والعمل كوكلاء لنا في العالم. ذروة هذا هو ما أشرت إليه باسم "نظام التقادم": بالنسبة لأي مهمة قد ترغب في القيام بها ، تفضل أن تسأل نظام ذكاء اصطناعي بدلاً من أن تسأل إنسانًا ، لأنها أرخص ، وتعمل بشكل أسرع وقد تكون أكثر ذكاء. وقالت أجيا كوترا ، كبير محللي الأبحاث حول الذكاء الاصطناعي ، Open Philanthropy : "في هذه اللعبة ، يكون البشر الذين لا يعتمدون على الذكاء الاصطناعي غير قادرين على المنافسة. لن تتنافس شركتك في اقتصاد السوق إذا كان الجميع يستخدمون صناع القرار في مجال الذكاء الاصطناعي وأنت تحاول استخدام البشر فقط. لن تربح بلدك حربًا إذا كانت الدول الأخرى تستخدم جنرالات الذكاء الاصطناعي واستراتيجيات الذكاء الاصطناعي وأنت تحاول التعامل مع البشر". وحذرت قائلة: "في هذا العالم ، يصبح من الأسهل تخيل أنه إذا أرادت أنظمة الذكاء الاصطناعي التعاون مع بعضها البعض من أجل إخراج البشر من الصورة ، فسيكون لديهم الكثير من الروافع لسحبها: فهم يديرون قوة الشرطة والجيش والمدير العام. أكبر الشركات إنهم يخترعون التكنولوجيا ويطورون السياسة .. الأشياء تتحرك بسرعة كبيرة. نحن لسنا في نظام التقادم هذا حتى الآن ، ولكن لأول مرة ننتقل إلى أنظمة الذكاء الاصطناعي ونتخذ إجراءات في العالم الحقيقي نيابة عن البشر".



الاكثر مشاهده

رئاسة وزراء ماليزيا ورابطة العالم الإسلامي تنظِّمان مؤتمرًا دوليًّا للقادة الدينيين.. الثلاثاء

كبار فقهاء الأمة الإسلامية يجتمعون تحت مظلة المجمع الفقهي الإسلامي

بدعوة من دولة رئيس الوزراء الباكستاني.. العيسى خطيباً للعيد بجامع الملك فيصل فى إسلام آباد

علماء العالم الإسلامي يُرشحون مركز الحماية الفكرية لإعداد موسوعة عن "المؤتلف الفكري الإسلامي"

رابطة العالم الإسلامى تنظم غداً مؤتمر "بناء الجسور بين المذاهب الإسلامية" فى مكة

د.العيسى يلتقي رئيس جمعيات الصليب الأحمر والهلال الأحمر على متن سفينة "أوشن فايكينغ"

;