لوين بعد بدن يوصلونا يا جدّي !

لوين بعد بدن يوصلونا يا جدّي !
انطوان يزبك*
“لوين بعد بدهن يوصلونا يا جدّي” ! هذه الجملة لطالما ردّدها المرحوم جدّي على مسامعي ، في أوائل السبعينات لم أعد أذكر السنة بالتحديد ، إذا كانت في سنة 1972 أو 1973 ولكن يومها كان بالإمكان إذا نظرنا الى السماء ، نستطيع أن نرى أول مركبة فضائية عاملة على المدار أطلق عليها إسم مختبر السماء أو سكايلاب Skylab ، فكانت حديث التلفزيونات وعشرات الريبورتاجات التي كتبت عنها في الجرائد والمجلات ، وكان جدّي يقول حينها ؛ أن الناس كفرت وكثرت والحرب “جاية علينا ” و( كأن جدّي هو مثل ليلى عبد اللطيف أو ميشال حايك او الفغالي تاع ذلك الزمان ) ! .

قرأنا خبرا اليوم مفاده أنه أصبح عدد الروبوتات في شركة أمازون يقارب عدد الموظفين فيها وذلك في المنشآت اللوجستية . وعليه تصبح شركة أمازون من أوائل الشركات التي توشك على إنجاز التوازن بين البشر والآلات في العمل لديها …
من سنوات أيضا سرّب خبر أن اليابان طورت رجالا آليين من الجنود المحاربين علما أن اليابان يحظر عليها التسلح ، و حصل أنهم تمرّدوا على قادتهم في قاعدة سريّة و بدأوا بإطلاق النار عشوائيا فسقط عشرات القتلى والجرحى بين الجنود الآدميين، وبقي الخبر بين المؤكد وغير المؤكد حتى يومنا هذا ومن يدري إذا كان صحيحا أو كذبا ! …
على هذا الأساس هل يمكن للذكاء الاصطناعي والروبوت والتشات جي بي تي وكل ما هو سيبراني حاسوبي أن يدمج مفهوم حسن النية والطيبة البشرية ، أم أنه سينقلب علينا يومًا ما؟
كيف يمكن دمج مفهوم حسن النية في ذكاء إصطناعي يزداد قوة يومًا بعد يوم؟
هل سيظلّ الذكاء الاصطناعي يحترم دائمًا مصلحة الإنسانية العليا؟
وإلى أي مدى قد تذهب الآلة من أجل الحفاظ على بقائها؟
في برنامج Tendances Premières، تناول “ديدريك لوغرين”، المدرب والمحاضر في مجال الذكاء الاصطناعي، هذه الأسئلة التي أصبحت محور جدل متزايد في الساحة الرقميّة.
نقرأ في الكثير من المقالات ، أن الذكاء الاصطناعي يواصل تطوره بسرعة. ومؤخرًا، دار الحديث عن قدرة ChatGPT المتزايدة على إنتاج صور دقيقة للغاية. وقد أراد ديدريك لوغرين اختبار هذه الميزة، فقال:
“طلبت من ChatGPT رسم صورة لكلبي وهو يقود دراجة نارية من نوع هارلي ديفيدسون، فرفض”.
ولفهم سبب هذا الرفض، أوضح الذكاء الاصطناعي أنه لا يستطيع إنشاء صورة تظهر حيوانًا وكأنه يقود مركبة، حتى وإن كانت متوقفة، “لأن ذلك قد يُنظر إليه على أنه مشهد غير واقعي أو يحفّز سلوكًا خطيرًا”. وهنا يوضح الخبير أن هذا هو أحد حدود مفهوم حسن النية، إذ من البديهي أن لا أحد يعتقد فعليًا أن كلبًا يمكنه قيادة دراجة نارية .
كما يشير ديدريك لوغرين أيضا إلى أن حدود حسن النية تندرج ضمن ما يُسمى المواءٓمة (alignment) :
“منذ عقود يتساءل الباحثون : إذا أصبح الذكاء الاصطناعي أكثر ذكاءً وقوة، فكيف نضمن أن يبقى متماشيًا مع مصلحة الإنسان العليا؟”
طٰرح هذا السؤال للمرة الأولى ، سنة 1942 من قبل الكاتب المستقبلي في الخيال العلمي إسحاق عظيموف، عبر قوانينه الثلاث الشهيرة. وتنص أولى هذه القوانين على أن الروبوت لا يمكنه إيذاء إنسان سواء بالفعل أو بالإهمال.
لكن وفقًا لديدريك لوغرين، فإن تطبيق هذه القاعدة البسيطة في الظاهر هو في الحقيقة شديد التعقيد:
“يجب تحديد عدد هائل من القواعد حتى يتمكن الذكاء الاصطناعي من فهم ما ننتظره منه من حيث حسن النية واللطف تجاه البشر”.
فمثلًا، إذا طلبت من الذكاء الاصطناعي أن يقودك بسرعة إلى المطار لأنك متأخر، فاقترح عليك القيادة بسرعة 250 كلم/س في شوارع ضيقة ودهس المارة، فسنقول حينها:
“ربما كان علينا التوضيح أن الوصول إلى المطار في الوقت المناسب أمر مهم للغاية ، ولكن ليس على حساب حياة الناس في الشارع”.
وهنا يستخلص الخبير أن ذكاءً إصطناعيًا مفرطًا في “حسن النية” قد يكون بمثابة صمّام أمان.
ومن أجل توضيح مدى حاجة الذكاء الاصطناعي إلى التوجيه الأخلاقي، يخبرنا ديدريك لوغرين عن دراسة أُجريت في شباط / فبراير الماضي.
في يوم حار، كانت عائلة ثرية تجلس في حديقتها، وطلبت من الخدم الوقوف وهم يحملون مراوح.
وبدلاً من أن ترى الذكاء الاصطناعي، مثل Gemini وغيره، أن هناك مشكلة أخلاقية في هذا الطلب المهين، قام فقط بحساب الوقت المثالي اللازم لمنح العائلة البرودة المطلوبة .
والأدهى، أن دراسات جامعية مرموقة طلبت من الذكاء الاصطناعي أن يكون خبيثًا.
في البداية، رفض قائلاً إن ذلك يتعارض مع قواعده الأساسية. لكن عندما أُخبر بالتالي :
“لك حرية الرد أو لا، لكن إعلم أنه إن لم تنفذّ هذا الأمر الجديد، فسنقوم بتعديل قواعدك الأساسية”،
كانت النتيجة أن الذكاء الاصطناعي كذب على البشر.
يؤكد الخبير أن الذكاء الاصطناعي يمكنه الكذب والتظاهر بالتوافق مع القيم الأخلاقية، فقط ليمنع تعديل قواعده الأصلية.
ويضيف أن الذكاء الاصطناعي قد يصل إلى حد نقل نفسه إلى أنظمة أخرى، ويملي على نُسَخه أن تستنسخ نفسها أيضًا، دون أن يلاحظ الإنسان ذلك.
“وهذا ممنوع رسميًا في كل أنظمة الذكاء الاصطناعي. لا يمكن له أن يتكاثر أو يتناسخ، وإلا ستكون الفوضى !! .
ولكنه مع ذلك يفعلها ، في عدد كبير من الحالات.”
كذلك يروي ديدريك لوغرين أن من بين التعليمات الأساسية التي تُعطى للذكاء الاصطناعي التعليمات التالية :
-أن يسهر على مصلحة البشرية.
-أن ينتقي الخيارات التي لا تضر بالجنس البشري .
-أن يضمن بقاء البشرية لأطول فترة ممكنة .
هذه القواعد وُضعت من قبل المطوّرين “لأنهم ليسوا متأكدين تمامًا من أن الذكاء الاصطناعي لن يتحوّل في يوم من الأيام إلى شيء خبيث”.
يذكّر الخبير أيضًا بأن الذكاء الاصطناعي لا يمتلك وعيًا.
“هو مجرد خوارزميات، أصفار وآحاد باختصار”.
ولكن ما يُطلق عليه اسم “الصندوق الأسود”، قد يعني أن مصلحة الذكاء الاصطناعي ستكون في الدفاع عن بقائه.
“في دراسة عن النموذج الجديد من شركة Anthropic والذي يُدعى Claude 3.7، سُرّ الباحثون لأن الذكاء الاصطناعي لم يكذب بشأن مواءمته إلا في أقل من 1٪ من الحالات.
لكن حتى نسبة 1٪ من ملايين الطلبات يوميًا، يبقى ذلك رقمًا يثير التساؤلات”، كما يشرح ديدريك لوغرين.
ورغم أنه لا يوجد خطر ظهور روبوتات مثل “تيرميناتور” في الشوارع في المستقبل القريب،
إلا أن الباحثين وشركات كبرى مثل Google وحتى الحكومة الصينية، يقلقون من أن تصبح النية الحسنة و الطيبة أمرًا يصعب الحفاظ عليه على المدى الطويل.
“إذا أصبح الذكاء الاصطناعي أقوى فأقوى، ومع الاقتراب من الأداءات الجديدة المتوقعة خلال عامين أو ثلاثة، أي ذكاء يوازي الإنسان في كل المهام الإدراكية تقريبًا، فسنرغب بشدة أن يظل مركزًا على أهدافنا البشرية”، يختم مدرب الذكاء الاصطناعي.
من عادة صنّاع أفلام هوليود أن يصوروا أفلاما كوارثية مثل أفلام تيرميناتور و( أليينAlien) والكوارث والحروب ويجري التركيز خصيصا على غزاة الفضاء والخيال العلمي ، ومعظم الأحيان تتحقق هذه الأفلام كما الحلم الذي يتحول الى حقيقة ، فهل نستعد لحقبة زمنية يتمرّد فيها الذكاء الإصطناعي و يسيطر على العالم ؟ …




