شاركها 0FacebookTwitterPinterestLinkedinRedditWhatsappTelegram 65 كانت هذه هي مقدمة الخطاب المفتوح المرسل للأمم المتحدة والذي أعلن عنه لأول مرة في مؤتمر IJCAI 2015، المؤتمر الدولي السنوي للذكاء الصناعي، ببيونس إيرس، برئاسة الأستاذ بجامعة أوكسفورد مايكل وولدريدج Michael Wooldridge. والخطاب يطالب من الأمم المتحدة بمنع وتجريم تطوير أي أسلحة تعمل بشكل ذاتي بدون توجيه بشري، اعتمادا على تقنيات الذكاء الصناعي الجاري تطويرها حاليا. ومؤسسة Future Of Life هي المسؤولة عن هذه المبادرة وعن حشد الأصوات والموارد اللازمة لإنجاحها. ووقّع الخطاب زمرة من نخبة علماء العالم في المجالات الفيزيائية والتقنية المختلفة، وربما أكثر البشر ذكاءا.ويأتي على رأسهم ستيفين هوكنج Stephen Hawking عالم الفيزياء الغني عن التعريف، وإلون ماسك Elon Musk المهندس الشهير، ومؤسس ال PayPal والرئيس التنفيذي لشركة SpaceX، أحد شركاء ناسا الحاليين، ومالك ورئيس شركة TESLA صاحبة السيارات الكهربائية الفارهة، وستيف وازنياك Steve Wozniak أحد مؤسسي شركة أبل، وفرانك ويلكزك Frank Wilczek أستاذ الفيزياء في MIT والحائز على جائزة نوبل، ونعوم تشومسكي Noam Chomsky المفكر والفيلسوف الأمريكي، والأستاذ في MIT، وستيوارت رسل Stuart Russell أستاذ علوم الحوسبة بجامعة بركلاي، ورئيس قسم الذكاء الصناعي بنفس الجامعة. وهذا غير أكثر من 2900 عالم في مختلف مجالات تطوير الذكاء الصناعي بجامعات مثل هارفرد وستانفرد وMIT، وشركات كـ Google. ويهدف الخطاب إلى منع تطوير تقنيات تجعل الأسلحة هي من تكون صاحبة القرار بالقتل والتدمير. والخوف هنا ليس من أن تنقلب علينا تلك الأسلحة كما نرى في أفلام الخيال العلمي، لكن الخوف من أن تصبح تلك الأسلحة كسلاح الكلاشينكوف بالنسبة للمستقبل. فتطوير وبناء أسلحة ذاتية سيكون سهل ورخيص بعد حل المعضلات البرمجية، ولن يحتاج انتشارها سوى للقليل من الموارد والعقول الذكية، وهذا عكس الأسلحة النووية التي تحتاج لإمكانيات ضخمة ليس من السهل توفيرها. وبسبب تلك السهولة النسبية، ستنتشر تلك الأسلحة الذاتية بشكل كبير، وربما ستصل لأيدي إرهابيين أو أيدي حكومات دكتاتورية. وسيتم استخدامها وقتها في الاغتيالات، والقضاء على المعارضة السياسية، وفرض السيطرة الغير شرعية. و يقول الخطاب: «السؤال الأهم للبشرية الآن هو، هل نبدأ سباقا جديدا للتسلح اعتمادا على تقنيات الذكاء الصناعي؟ أم نمنع تلك التقنيات تماما؟ ولو تمادت أي قوى عسكرية في تطوير واستخدام تلك الأسلحة، فسيصبح ذلك السباق لا مفر منه». وقد حذر إيلون ماسك من تطوير تقنيات الذكاء الصناعي عموما قائلا: «سيكون الذكاء الصناعي أهم أسباب القضاء على البشر»، كما قال ستيفين هوكنج: «تطوير تقنيات الذكاء الصناعي سيصبح من أهم انجازات البشر، ولسوء الحظ، ربما سيكون آخر شيء يفعلونه» في إشارة لفكرة قضاء الآليات التي تعمل بالذكاء الصناعي على البشر. وتبرع ماسك بـ 10 ملايين دولار لمؤسسة Future Of Life بغرض دعم الأبحاث لتطوير تقنيات مضادة تضمن السيطرة على تقنيات الذكاء الصناعي، وأيضا دعم تطوير تقنيات ذكاء صناعي متوافقة مع القيم البشرية. ومن ضمن الموقعين أيضا أكثر من 44 موظف في جوجل، منهم حوالي 22 في شركة DEEPMIND المختصة بأبحاث الذكاء الصناعي والتي استحوذت عليها جوجل مؤخرا، و13 عالما من ستانفورد، و14 من MIT. وهذا من بين 17 ألف موقع تقريبا حتى الآن. ونجد بين الأسماء اسم ساره كونر Sarah conner، الشخصية الرئيسية في سلسلة أفلام Terminator، والتي كانت تحارب سيطرة الآليين على الأرض، ويبدو أن أحد الأذكياء لم يفته أن تكون ساره هي أول الموقعين، فقام بالتوقيع باسمها. ويمكنك قراءة الخطاب كاملا والتوقيع أيضا من هنا: http://futureoflife.org/AI/open_letter_autonomous_weapons . لكن السؤال الآن: هل اقتربنا بالفعل من تصنيع أسلحة ذكية قادرة على اتخاذ قرارات القتل دون الحاجة لمعونة قائد؟ يبدو أن هذا قد حدث بالفعل. فشركة لوكهيد مارتين، شركة التسليح الرائدة، قامت بتصنيع صواريخ مضادة للسفن، طويلة المدى، قادرة بعد اطلاقها على اختيار أهدافها وضربها دون سيطرة بشرية. كما تشير بعض التقارير إلى أن بريطانيا وإسرائيل لديهما الآن أسلحة قادرة على استهداف الدبابات والسفن ووحدات الرادار دون الحاجة لتحكم بشري. ولمثل هذا الخطاب أصل تاريخي أدبي غير مشهور سوى بين محبي السينما، والبرمجة. وأتحدث هنا عن قوانين الروبوتات لأزيموف. فـإسحاق أزيموف Isaac Asimov صاحب سلسلة روايات الخيال العلمي الشهيرة Foundation، قام في روايته الشهيرة I’Robot بوضع قوانين ثلاثة تحكم علاقات الآليات الذكية بالبشر. ويقول القانون الأول: لا يجوز لآلي إيذاء بشريّ أو السكوت عما قد يسبب أذًى له. والقانون الثاني: يجب على الآلي إطاعة أوامر البشر إلا في حالة تعارضها مع القانون الأول. والقانون الثالث: يجب على الآلي المحافظة على بقائه طالما لا يتعارض ذلك مع القانونين الأول والثاني. وفي تلك الرواية يرفض أزيموف استخدام الآليات في أغراض عسكرية ضد البشر، وربما كان هو أول من حذر من هذا قديما، فهل ستستجيب البشرية لتلك التحذيرات؟! أن ستواجه مصيرها المستقبلي الغامض؟ قد يعجبك أيضاً 7 أنواع من البكتيريا الخارقة التي تتحدى أقسى الظروف العودة للقمر أم الذهاب للمريخ؟ 5 أسباب تعطي أفضلية للقمر 10 أنشطة تفاعلية تحبب طفلك في علم الفلك الكونكتوم: عقل الإنسان المتغير دائمًا شاركها 0 FacebookTwitterPinterestLinkedinRedditWhatsappTelegram أحمد السيد Follow Author المقالة السابقة إدوارد جينر منقذ العالم من الجدري المقالة التالية Biohacking: عندما تتزاوج التقنيّة والبيولوجيا قد تعجبك أيضاً احفظ الموضوع في قائمتك أعلنت بسببه «الصحة العالمية» حالة الطوارئ، ما الذي تعرفه عن... 27/02/2023 احفظ الموضوع في قائمتك كيف تحقق في رمضان نقلة صحية نوعية؟ 28/02/2023 احفظ الموضوع في قائمتك تقنية الفيديو في كأس العالم: ولكم في «نطحة زيدان» عبرة 27/02/2023 احفظ الموضوع في قائمتك الحبسة الكلامية: مغامرة صعبة جديدة يخوضها «بروس ويليس» 28/02/2023 احفظ الموضوع في قائمتك كم يبلغ حجم الكون 27/02/2023 احفظ الموضوع في قائمتك الخوف من الإشعاع أكثر خطورة من الإشعاع نفسه 27/02/2023 احفظ الموضوع في قائمتك مرصد هابل: حين تُنير أبصارنا الكون 27/02/2023 احفظ الموضوع في قائمتك أفضل 6 مواقع تقدم الأفلام الوثائقية مجانًا 28/02/2023 احفظ الموضوع في قائمتك استخدام حقل مغناطيسي خارجي لتفعيل الدواء داخل الجسم 27/02/2023 احفظ الموضوع في قائمتك حفرية قرموط وادي الحيتان: حوار مع الباحثة المصرية سناء السيد 27/02/2023 اترك تعليقًا إلغاء الرد احفظ اسمي، البريد الإلكتروني، والموقع الإلكتروني في هذا المتصفح للمرة القادمة التي سأعلق فيها.