Uncategorizedثقافة وفن

السيطرة على الذكاء الاصطناعي مستحيل

متابعة أية زيدان 

 

إمكانية التحكم في الذكاء الاصطناعي الخارق الذي يتجاوز فهم الإنسان تكاد تكون مستحيلة، وفقًا لدراسة أجريت في 2021، تشير الدراسة إلى أن الإرشادات الأخلاقية مثل “لا تسبب أذى للبشر” تصبح صعبة التنفيذ مع الذكاء الاصطناعي الخارق، الذي يمكن أن يخزن كل برنامج الحاسوب في ذاكرته في آن واحد.

 

أصبحت الحاجة لمعالجة هذه المخاوف أكثر إلحاحًا بعد أن دعا زعماء صناعة التكنولوجيا، بما في ذلك إيلون ماسك وشريك مؤسس أبل ستيف وزنياك، إلى وقف العمل على الذكاء الاصطناعي لاستكشاف سلامته بشكل أكبر وإدارة المخاطر، وحذرت رسالتهم المفتوحة بعنوان “إيقاف التجارب العملاقة للذكاء الاصطناعي” من أن أنظمة الذكاء الاصطناعي التي تتساوى مع الذكاء البشري يمكن أن تشكل مخاطر كبيرة على المجتمع والإنسانية ويجب أن يتم تطويرها فقط بمجرد أن نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها ستكون قابلة للإدارة.

 

ما يبرز الحاجة إلى النظر بجدية في الاتجاه الذي يسير فيه تطوير الذكاء الاصطناعي، ولطالما كان مفهوم الذكاء الاصطناعي (AI) الذي يتجاوز البشر محل نقاش لسنوات، وتجددت هذه المخاوف بفضل تطور أنظمة الذكاء الاصطناعي مثل ChatGPT، إذ تبقى احتمالية تمكن البشر من التحكم في هذا النوع من الذكاء الخارق غير مؤكدة.

 

تشير الدراسة التي قادها عالم الحاسوب إياد رهوان من معهد ماكس بلانك للتنمية البشرية في ألمانيا، إلى أن فكرة التحكم في ذكاء اصطناعي خارق يتجاوز فهم الإنسان تكاد تكون مستحيلة. ويعود السبب بذلك إلى الحاجة لمحاكاة قابلة للفهم للذكاء الخارق من أجل التحكم فيه، إذا كان الذكاء الاصطناعي يتجاوز فهمنا، فإن إنشاء مثل هذه المحاكاة يصبح تحديًا لا يُعلى عليه. علاوة على ذلك تصبح القواعد الأخلاقية مثل “لا تسبب أذى للبشر” غير قابلة للتطبيق لأننا لا نستطيع التنبؤ بالسيناريوهات التي يمكن أن يخلقها.

 

يجادل رهوان أن الذكاء الخارق يقدم مجموعة مختلفة من المخاوف الأخلاقية بالمقارنة مع تلك التي تم مناقشتها تقليديًا في “أخلاقيات الروبوت”، إذ يمكن أن يكون الذكاء الخارق قادرًا على تجنيد مجموعة متنوعة من الموارد لتحقيق أهداف قد تكون غير مفهومة للبشر أو غير قابلة للتحكم.

 

استشهد الفريق البحثي بمشكلة الإيقاف التي قدمها آلان تورينغ في عام 1936 لتوضيح وجهة نظرهم، إذ تتمحور مشكلة تورينغ حول معرفة ما إذا كان برنامج الحاسوب سيصل إلى حل (أي يتوقف) أو سيتكرر للأبد دون العثور على واحد. أثبت تورينغ من خلال بعض الرياضيات الذكية أنه من المستحيل منطقيًا العثور على طريقة تسمح لنا بمعرفة ذلك لكل برنامج محتمل يمكن كتابته أبدًا، وفي سياق الذكاء الاصطناعي يمكن للذكاء الخارق بشكل محتمل أن يخزن كل برنامج الحاسوب في ذاكرته في آن واحد.

 

في جوهر الأمر أي برنامج مكتوب لمنع الذكاء الاصطناعي من إلحاق الضرر بالبشر أو تدمير العالم قد يصل إلى حل (ويتوقف) أو لا، وهو ما يجعل من المستحيل علينا أن نكون متأكدين تمامًا بطريقة أو بأخرى، وهذا يعني أنه لا يمكن السيطرة عليه.

 

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى