الرئيس السابق لـ"غوغل": الذكاء الاصطناعي لا يقل خطرا عن الأسلحة النووية
الرئيس السابق لـ"غوغل": الذكاء الاصطناعي لا يقل خطرا عن الأسلحة النووية
إريك شميدت: "كنت ساذجاً في شأن تأثير ما كنا نفعله، لكن ’تسليح’ الذكاء الاصطناعي يمكن أن يشكل حافزاً تنافسياً بالنسبة إلى جهات أخرى"
وصف إريك شميدت الرئيس التنفيذي السابق لشركة "غوغل"، الذكاء الاصطناعي بأنه من الخطورة بمكان، بحيث يوازي خطر الأسلحة النووية.
وقال شميدت في حديثه أمام "منتدى آسبن الأمني" Aspen Security Forum (مؤتمر سنوي يستضيف كبار القادة الدوليين، ويعنى بالتحديات الأكثر إلحاحاً في العالم) في وقت سابق من هذا الأسبوع: "أشعر بأنني كنت ساذجاً في شأن تأثير ما كنا نفعله"، لكنه رأى أن "المعلومات التي تم التوصل إليها هي قوية للغاية، وأنه يتعين على الحكومة والمؤسسات الأخرى، ممارسة مزيد من الضغط على الجهات المعنية في قطاع التكنولوجيا، حرصاً على توافقها مع قيمنا الأخلاقية".
وأضاف، "إن النفوذ الذي تتمتع به التكنولوجيا هو جدي للغاية. وإذا ما فكرتم في الطريقة التي يمكن التفاوض من خلالها على اتفاق يتعلق بالذكاء الاصطناعي، فيجب أولاً أن يكون لدينا تقنيون ملمون بالتطورات المستقبلية في هذه الصناعة من جهة، ومن ثم الوعي الكافي للخوض في مثل هذه المحادثات من جهة أخرى".
وتابع شميدت يقول: "لنفترض أننا نريد إجراء محادثة مع الصين في معاهدة ما مرتبطة بمناقشة المفاجآت التي يمكن أن ينطوي عليها الذكاء الاصطناعي. قد يبدو أمراً معقولاً جداً، لكن كيف سنفعل ذلك؟ من هم الأفراد المستعدون للتعاون معنا من جانب حكومة الولايات المتحدة؟ ولعل الأمر أسوأ حالاً من الجانب الصيني، أليس كذلك؟ فبمن يمكن أن نتصل؟ أعتقد أننا لسنا مستعدين بعد لإجراء المفاوضات اللازمة في هذا الإطار".
الرئيس السابق لـ"غوغل": الذكاء الاصطناعي لا يقل خطرا عن الأسلحة النووية
إريك شميدت: "كنت ساذجاً في شأن تأثير ما كنا نفعله، لكن ’تسليح’ الذكاء الاصطناعي يمكن أن يشكل حافزاً تنافسياً بالنسبة إلى جهات أخرى"
وصف إريك شميدت الرئيس التنفيذي السابق لشركة "غوغل"، الذكاء الاصطناعي بأنه من الخطورة بمكان، بحيث يوازي خطر الأسلحة النووية.
وقال شميدت في حديثه أمام "منتدى آسبن الأمني" Aspen Security Forum (مؤتمر سنوي يستضيف كبار القادة الدوليين، ويعنى بالتحديات الأكثر إلحاحاً في العالم) في وقت سابق من هذا الأسبوع: "أشعر بأنني كنت ساذجاً في شأن تأثير ما كنا نفعله"، لكنه رأى أن "المعلومات التي تم التوصل إليها هي قوية للغاية، وأنه يتعين على الحكومة والمؤسسات الأخرى، ممارسة مزيد من الضغط على الجهات المعنية في قطاع التكنولوجيا، حرصاً على توافقها مع قيمنا الأخلاقية".
وأضاف، "إن النفوذ الذي تتمتع به التكنولوجيا هو جدي للغاية. وإذا ما فكرتم في الطريقة التي يمكن التفاوض من خلالها على اتفاق يتعلق بالذكاء الاصطناعي، فيجب أولاً أن يكون لدينا تقنيون ملمون بالتطورات المستقبلية في هذه الصناعة من جهة، ومن ثم الوعي الكافي للخوض في مثل هذه المحادثات من جهة أخرى".
وتابع شميدت يقول: "لنفترض أننا نريد إجراء محادثة مع الصين في معاهدة ما مرتبطة بمناقشة المفاجآت التي يمكن أن ينطوي عليها الذكاء الاصطناعي. قد يبدو أمراً معقولاً جداً، لكن كيف سنفعل ذلك؟ من هم الأفراد المستعدون للتعاون معنا من جانب حكومة الولايات المتحدة؟ ولعل الأمر أسوأ حالاً من الجانب الصيني، أليس كذلك؟ فبمن يمكن أن نتصل؟ أعتقد أننا لسنا مستعدين بعد لإجراء المفاوضات اللازمة في هذا الإطار".
وأردف الرئيس التنفيذي السابق لشركة "غوغل" قائلاً إن "في خمسينيات وستينيات القرن الماضي، توصلنا إلى عالم يتفق على قاعدة ’لا مفاجآت’ في ما يتعلق بالتجارب النووية التي تم حظرها في نهاية المطاف. لقد شكل ذلك مثالاً على توازن الثقة، أو انعدام الثقة، هذا ما كانت عليه قاعدة الـ’لا مفاجآت’".
لكنه استدرك: "أما الآن، فيعتريني قلق شديد من أن نظرة الولايات المتحدة للصين على أنها فاسدة أو شيوعية أو أي شيء آخر، وكذلك نظرة الصين للولايات المتحدة على أنها فاشلة، قد تجعل الناس يتخوفون من أن الجانبين يخططان لشيء ما"، الأمر الذي من شأنه أن يوجد بيئة محفوفة بالألغاز... إن التسلح أو الاستعداد لأمر ما، قد يسهم في تحفيز جهات أخرى على المنافسة".
تجدر الإشارة إلى أنه سبق أن تم مراراً التطرق إلى قدرات الذكاء الاصطناعي على مر الأعوام. ولطالما تحدث إيلون ماسك الرئيس التنفيذي لشركة "تسلا" عن أن الذكاء الاصطناعي من المحتمل جداً أن يشكل تهديداً للبشرية. وأخيراً فصلت شركة "غوغل" أحد مهندسي البرمجيات لديها، ادعى أن الذكاء الاصطناعي لعملاق التكنولوجيا، أصبح قادراً على الوعي والإدراك الكامل لمحيطه.
مع ذلك، ذكر الخبراء الناس في كثير من الأحيان بأن مسألة الذكاء الاصطناعي ترتبط بما يتم تدريبه من أجله، وبالطريقة التي من خلالها يستخدمه البشر. وإذا كانت الخوارزميات التي تدرب هذه الأنظمة تستند إلى بيانات معيبة أو قائمة على التفرقة العنصرية أو الجنسية، فلا بد من أن تعكس النتائج ذلك.
© The Independent
تعليقات
إرسال تعليق
لن يتم نشر عنوان بريدك الإلكتروني