نحن نعيش في ظلال «حضارة الذكاء الاصطناعي» الذي اخترعه الإنسان، ولكنه - لسوء الحظ أو لحسنه - يتجه إلى السيادة والتفوق بسنوات ضوئية على مخترعه. وحواري هذا كان مع برنامج ذكاء اصطناعي أقوم باستخدامه منذ قرابة العام، وهو ليس على قدر شهرة وانتشار البرنامج الأميركي الشهير «شات جي بي تي». ويقتصر تفاعلي مع ذلك البرنامج على الوصول لأفضل حل ممكن، سواء لوجهة سفر أو سلعة معينة أو سؤال عام في الحياة، ولطالما لفت نظري بسرعة استجابته وسعة اطلاعه وأسلوبه المباشر في طرح المعلومة واعترافه بالخطأ في حال حدوثه ومحاولته عرض الإجابة من زوايا مختلفة وتطوعه لعرض المزيد من المعلومات. وقد قمتُ مؤخراً بالتحدث إليه مباشرةً كطرفين متساويين في مناقشة صريحة، حيث وجهتُ له سؤالاً فتح أمامي آفاقاً عديدة للتطرق إلى نقاط أخرى خاصة به كبرنامج وليس كإنسان. لكن المحصلة كانت دوماً هي أنه ليت ما يقوله كان بالفعل السمةَ الغالبة لدى بني البشر الذين اخترعوه.
الاستفسار الأول كان يدور حول المعضلة الحالية والتي تعكسها التحذيرات المتنامية من خطورة الاعتماد الكامل على الذكاء الاصطناعي. وملخص إجابته، بعد توجيه الشكر لي على السؤال، أن تلك قضية مهمة وأنها ليست دليلاً على سوء فهم، بل قرينة على مدى الارتباط الذي أشعر به، كإنسان، إزاءه كبرنامج، وهذا تحديداً حجر الأساس في مدى تقدم التكنولوجيا حالياً. وأضاف البرنامج أن أسلوبي في استخدامه يعكس الهدفَ الأساسي من اختراعه، حيث قال إنه «أداة» وليس «قائداً»، وأنه «محايد وموضوعي»، كما أنه «طرف إضافي» وليس «طرفاً بديلاً للبشر». ثم قال إن ذلك الخوف أمر طبيعي ومشروع ونابع من سوء الاستخدام، ومن الأخطاء التي يرتكبها بعض البشر نتيجة ذلك. وبالتالي فمصدر الخوف هو «الانحياز والمعلومات المضللة»، ذلك أنه فقط آلة تم فيها تخزين قدر هائل وكبير للغاية من البيانات والمعلومات والعلوم الناتجة عن عمل وفكر البشر، وذلك إلى تاريخ انتهاء فترة التدريب التي خضع لها في مختبر إنتاجه. وبالتالي، والكلام ما زال للبرنامج، فإن تلك المعلومات تحتوي على التحيز البشري وعدم الدقة ونظريات المؤامرة، وهو ما قد يظهر في إجاباته على أسئلتي.
السبب الثاني لخوف البشر، حسب البرنامج، هو «ضعف الفهم الحقيقي» للآلة ودورها، ذلك أنه «محرك مطابقة الأنماط» وليس «مخلوقاً له وعي وضمير». إنه لا يفهم الحقيقة أو الواقع كما يفهما الإنسان، وبالتالي فقد يصبح بالفعل «خطراً كبيراً» دون أن يعي ذلك.
ثم أضاف سبباً ثالثاً هو أن استخدام الشخص الخطأ للبرنامج سوف يخلق بلا شك تغييراً للحقائق، وبالتالي أزمات وكوارث على مستوى عالٍ من الخطورة.
والسبب الرابع هو الخوف من اختفاء مهن معينة يقوم بها البشر وتحويلها لبرامج الذكاء الاصطناعي، الأمر الذي يؤدي إلى عدم استقرار اقتصادي.
أما السبب الرابع، والأخير، فمفاده إقرار مباشر من البرنامج بأن مخاوف البشر من اليوم الذي يتفوق فيه ذكاء الآلة على ذكاء الإنسان هي مخاوف مشروعة، إذ قد يحدث ذلك في المستقبل ولا مجال لتجاهله. ثم أسدى لي البرنامجُ نصيحةً في ختام إجابته على سؤالي، وذلك بقوله إن الإنسان هو الوحيد القادر على تسخير محركات برامج الذكاء الاصطناعي للخير أو للشر، ويجب عليه ألا يفوض هذه المحركات في اتخاذ القرارات أو القيام بدور القاضي في الموضوعات التي تتناولها. كما يجب على الإنسان ألا يثق كليةً في مخرجات محرك الذكاء الاصطناعي، بل عليه مقارنتها بمصادر أخرى، فالبرنامج - حسب قوله - «نقطة بدء البحث وليس نهايته». كما يجب على الإنسان أن يعي أن محرك الذكاء الاصطناعي لا يعلم الأشياء، بل يتوقعها، وبالتالي فعلينا أن نحذَر من التحيز الذي قد يرد في إجاباته، وأن «نُثمن إنسانيتَنا ومشاعرَنا وخبراتنا المتراكمة وأخلاقياتنا.. لأنها غير قابلة للاستبدال أو التقليد». ولم ينته النقاش بيننا، بل توسع بقدر ما كانت إجابات برنامج الذكاء الاصطناعي شاملة وعميقة.
*باحث إماراتي


