هل يمكن أن يخرج التقدم التكنولوجي الكبير بسبب الذكاء الاصطناعي ، الذي اكتسب زخما في السنوات الأخ يرة ، عن السيطرة؟ وفقا للعالم الأمريكي جون هوبفيلد ، الذي فاز بجائزة نوبل في الفيزياء لأبحاثه الرائدة في مجال الذكاء الاصطناعي ، فإن الإجابة هي نعم.
وفقا لهوبفيلد ، فإن تقنيتين تم تعريفهما خلال حياته على أنهما مبتكرتان يمكن أن تكونا خطيرتين. الأولى هى الهندسة البيولوجية والثانية هي الفيزياء النووية. “لقد اعتدنا على التقنيات التي ليست جيدة أو سيئة فحسب ، بل يمكن أن تسير في كلا الاتجاهين. بصفتي فيزيائيا، أنا قلق للغاية بشأن شيء لا يمكن السيطرة عليه”.
ووفقا له ، على الرغم من أن أنظمة الذكاء الاصطناعي هي عجب مطلق ، إلا أن كيفية عملها لا تزال غير واضحة بما فيه الكفاية - وهي حقيقة مزعجة للغاية بالنسبة له. ولهذا السبب، أؤكد على الحاجة إلى فهم أفضل لهذه الأنظمة، والتي قد تصل إلى قدرات أكثر أهمية مما نتخيله حاليا”.
يتعلق أحد السيناريوهات من أنظمة الذكاء الاصطناعي بسيناريو يعتبر خياليا ، والذي بموجبه ستسيطر أنظمة الذكاء الاصطناعي على البشرية. هذا سيناريو يبدو خياليا ويائسا للكثيرين ، لكن عددا قليلا من الآخرين ، مثل هوفيلد ، يعتقدون أن هذه الأنظمة يمكن أن يكون لها عواقب غير متوقعة على مستقبلنا.