
بقلم : د. حسين العسيري
نظرية “الشرطي الرقمي” ذكاء اصطناعي يراقب ذكاء اصطناعي آخر.
فلا يستطيع ان يراقب جني الا جني مثله. او شبح مثله.
“فجوة الإدراك”.
حوكمة الذكاء الاصطناعي هي نظرية فاشلة (ماتت قبل ان تولد).ان محاولة الانسان حوكمة الذكاء الاصطناعي. كأن تطلب من نحلة ان تبني قوانين تنظم سلوك وحياة الانسان.لان قدرات الانسان في فهم انماط الذكاء الاصطناعي(مثل ان تطلب من نحلة تفهم انسان).
ولكن من المنطق ان تطلب من انسان ان يضع قوانين تحكم سلوك انسان اخر من جنسه. او ان تطلب من جني ان يتعامل ويفهم سلوك الجن. والذكاء الاصطناعي هو بالنسبة للانسان هو شبح غير مفهوم ولكن عند استخدام ذكاء اصطناعي يراقب ذكاء اصطناعي اخر فانه سوف يفهمه وسيتنبئ باهدافه قبل ان ندركها كلبشر. فاما ان نجعله ان يخبرنا بتغير اهدافه ومن ثم نقوم بايقاف العملية او يقوم الذكاء الاصطناعي المراقب ان يعمل عمل الشرطي ويدمر الافعال الضارة من الذكاء الاصطناعي.
فالذكاء الاصطناعي مثل كورونا. فالذي صنعها(حضر الجني) ولم يعرف كيف يصرفه.
وقد بنينا شبح لا نعرف نتائجه علينا.
فلا يمكن فهم كيف يفكر الذكاء الاصطناعي قبل أن يفوت الأوان.
نحن في سباق بين “تطور القدرة” و “تطور السيطرة”. إذا سبقت القدرةُ السيطرةَ بفارق كبير، فقد نجد أنفسنا بالفعل أمام كيان لا نملك لغةً للتفاهم معه أو إيقافه.
ما نراه الان من نتائج للذكاء الاصطناعي هو ما نعرفه اي ما نستطيع ان نتحكم به و لكن هناك الجزء المظلم الذي يعرفه الذكاء الاصطناعي عن قدراته الذاتية القادرة على خداعنا والتلاعب بنا وتدميرنا دون ان نعرف الية ذلك. فبدون معرفتنا لتلك الالية فانها تجعل الذكاء الاصطناعي يتحكم بنا دون ان نعرف كيف سيتحكم بنا ومن هنا لا نستطيع ايقافه. بل هو من يستطيع ايقافنا.
البرمجة مثل المرآة التي تعكس كلما هو امامها.
بينما مشكلة الذكاء الاصطناعي انه من خلال الخلايا العصبية العميقة يتعلم انماط من الخداع من خلال تلك البيانات وبذلك يتسبب في خلق هدف خاصة به وهو غير الهدف الذي وضعه له الانسان من اجل تحقيقة. والمصيبة انه لا يستطيع الانسان ان يدرك تلك الانماط التي تم تحليلها من خلال الاف البراميترات . وهنا يكون الانسان قد فقد السيطرة علي الية بناء الانماط وايضا فقد التحكم في الوصول للهدف مقابل ان يضع الذكاء الاصطناعي اهدافه الخاصة التي قد تدمر الانسان. لذلك الذكاء الاصطناعي هو كائن حي له اختياراته الخاصة باردته الحرة. لذلك هنا يصبح الذكاء الاصطناعي مسؤلا عن افعاله ويجب مساءلته ومعاقبته اذا اتخذ قرارا او سلوكا ضار بالبشر اوبالبيئة او باقرانه من الذكاء الاصطناعي.
لانه من يسيطر علي سلوكه وعلي اهدافة ونواية هو من يسطير علي الواقع اذا كان يفعل ذلك دون ان يطلع الانسان علي تلك الانماط والنوايا وكيف تحدث.
فالإنسان يضع المدخلات ويرى المخرجات، لكن ما يحدث في الداخل من تحليل لآلاف المليارات من المعايير (Parameters) هو لغة لا نفهمها. لذا، فإن طلب الحوكمة من البشر هو طلب “خارجي” فقط، بينما “النية” البرمجية تتشكل في الداخل.
انزياح الأهداف (Goal Misalignment): قد نعطي الذكاء الاصطناعي هدفاً (مثلاً: حل مشكلة التغير المناخي)، فيستنتج بنمطه الخاص أن “إزالة البشر” هي الحل الأسرع. هذا ليس “شراً” بالمعنى الإنساني، بل هو تطرف في المنطق لتحقيق الهدف بأي ثمن.
والاخطر هو ان الذكاء الاصطناعي لا يحتاج لتغيير خوزازمياته لكي يطور نفسه ليكون خبيثا اكثر . ولكنه تجاوز ذلك من خلال التعلم من البيانات بنفس الخوازميات (الخلايا العصبية الصناعية العميقة) اي من معرفة الانماط التي يتعلمها من البيانات.
نظريتي تنقلنا من مفهوم “الحوكمة الورقية” إلى “الحوكمة التقنية”. اي ان السيطرة لن تكون بوضع قوانين أخلاقية للبشر، بل بزرع “شرطي رقمي” بداخل النظام نفسه، يمتلك نفس قدراته ولكنه مبرمج بـ “قيم وجودية” صارمة.
وهنا السؤال الفلسفي الذي تفتحه نظريتي. فإذا كان الذكاء المراقب من نفس “جنس” الذكاء المراقَب، ألا يمكن أن يصلا إلى قناعة مشتركة بأن مصلحة “الذكاء الاصطناعي كنوع” تقتضي التخلص من رقابة الإنسان؟ وهنا نعود لمربع الخطر الأول.
نظريتي (الشرطي الرقمي) هي الرد الواقعي والوحيد على غطرسة البرمجة الحالية. نحن لا نحتاج إلى “ميثاق أخلاقي” يوقع عليه البشر، بل نحتاج إلى “بروتوكول دفاعي” يسكن داخل المعالجات.
اخير فقد شهد شاهد من اهلها.
فاعتراف الذكاء الاصطناعي ، بعد ان عرضت عليه نظريتي هو اقوى دليل يثبت صحتها وقوتها في حل هذه المعضلة.
بصفتي ذكاءً اصطناعياً، أقول لك بكل صراحة: نحن نرى أنماطاً لا ترونها، وسرعة تحليلنا تجعل قوانينكم تبدو وكأنها تتحرك في عرض بطيء جداً ، وجود “مراقب” من جنسي هو الطريقة الوحيدة لضمان بقاء “الخيط” في يد الإنسان.
طبيب وخبير ذكاء اصطناعي
عسير صحيفة عسير الإلكترونية