لم يكن سؤال السيناتور الأميركي بيرني ساندرز في مقابلته مع CNN بالعربية سؤالاً عابراً حين قال: «هل تظن أنهم قلقون على الناس؟». كان سؤالاً أخلاقياً بامتياز، يختصر جوهر المعضلة التي يطرحها الذكاء الاصطناعي اليوم: ليست المشكلة في التقنية، بل في مَنْ يملكها، ومَنْ يوجّهها، ولأي غاية تُستخدم. فالذكاء الاصطناعي لم يَعُد ابتكاراً مساعداً، بل قوة شاملة تتسلل بهدوء إلى الاقتصاد والسياسة والمجتمع، وتفرض إيقاعها على الإنسان قبل أن يُمنح الوقت الكافي لفهم تبعاتها.أولى هذه التبعات تظهر في سوق العمل.
فالتقارير الدولية تتحدث عن موجة إحلال غير مسبوقة، لا تطال العمالة اليدوية فقط، بل تمتد إلى وظائف كانت تُعد حتى وقت قريب «محمية» بالخبرة البشرية، كالمحاسبة، والتحليل القانوني، وإنتاج المحتوى، وحتى بعض التشخيصات الطبية. الفارق الجوهري بين هذه الموجة وسابقاتها أن السرعة هنا قاتلة، فالاقتصادات لا تملك رفاهية التدرّج، والطبقات الوسطى مرشّحة لأن تكون الخاسر الأكبر. حينها يصبح السؤال ملحّاً: مَنْ سيعوّض هذا الخلل؟ وهل توجد سياسات انتقال عادلة، أم أن الأرباح ستتكدس في قمة هرم ضيق من الشركات العملاقة؟
الخطر الثاني أكثر عمقاً وأشد صمتاً، ويتمثل في تركّز القوة. الذكاء الاصطناعي يُطوَّر اليوم داخل دوائر مغلقة، تتحكم فيها شركات محدودة تملك البيانات، والقدرة الحاسوبية، ورأس المال. هذه الشركات لا تُنتج أدوات فحسب، بل تصنع قدرة على التنبؤ بالسلوك، والتأثير في القرار، وصياغة الواقع الرقمي ذاته. هنا لا نتحدث عن احتكار سوق، بل عن احتكار معرفة ونفوذ، ما يهدد بتقويض مبدأ تكافؤ الفرص، ويُعيد تشكيل العلاقة بين المواطن، والدولة، والقطاع الخاص على نحو غير متوازن.
ثم تأتي المعضلة الأخطر: الحقيقة ذاتها. الذكاء الاصطناعي بات قادراً على إنتاج محتوى يصعب تمييزه عن الواقع، من نصوص مقنعة إلى صور وفيديوهات مزيفة بدقة مذهلة. هذا التطور يفتح الباب أمام موجات تضليل منظمة، قادرة على التأثير في الانتخابات، وإشعال الانقسامات، وتدمير الثقة العامة بالمعلومة. حين يفقد المجتمع قدرته على التمييز بين الصدق والزيف، تصبح الديمقراطية نفسها في مهب الريح، لأن القرار العام يُبنى على انطباعات مصطنعة، لا على وقائع.
ولا يقِلُّ البُعد النفسي خطورة عن كل ما سبق. فمع تزايد اعتماد الأفراد، خصوصاً الشباب، على الأنظمة الذكية في الدراسة والعمل وحتى في الدعم العاطفي، يبرز سؤال جوهري حول مستقبل العلاقات الإنسانية. ماذا يحدث حين تصبح الآلة وسيطاً دائماً بين الإنسان ونفسه، وبين الإنسان والآخر؟ بعض الخبراء يحذّرون من تآكل بطيء للروابط الاجتماعية، ومن انتقال الإنسان من كائن اجتماعي إلى فرد «متصل» لكنه معزول، يكتفي بتفاعل آمن مع خوارزمية لا تخذله، لكنها أيضاً لا تشاركه إنسانيته.
أما في المجال الأمني والعسكري، فإن الذكاء الاصطناعي يفتح فصلاً جديداً بالغ الحساسية. أنظمة المراقبة، والتحليل الاستخباراتي، والأسلحة ذاتية التشغيل، كلها تقنيات تحمل وعوداً بالكفاءة، لكنها في الوقت نفسه تثير مخاوف أخلاقية وجودية. حين تُفوَّض الخوارزميات باتخاذ قرارات مصيرية في أجزاء من الثانية، يقلّ هامش الخطأ البشري، لكنه لا يختفي، بل يتحول إلى خطأ آلي قد تكون كلفته كارثية، خاصة في عالم متوتر أصلاً.
في هذا السياق، يبدو تحذير ساندرز أقرب إلى جرس إنذار منه إلى موقف أيديولوجي. هو لا يدعو إلى وقف التقدم، ولا إلى شيطنة الذكاء الاصطناعي، بل إلى طرح السؤال الذي يسبق كل تشريع وكل استثمار: مَنْ المستفيد؟ وأين يقف الإنسان في هذه المعادلة؟ فالتقنية، مهما بلغت من تطور، تظل أداة. إما أن تُسخَّر لتوسيع فرص البشر، أو تُترك لتكريس فجواتهم.
الخلاصة أن الذكاء الاصطناعي ليس قدراً محتوماً، بل خياراً جماعياً. إما أن يُدار ضمن أطر تنظيمية عادلة، شفافة، تضع الإنسان في مركز القرار، أو ينفلت ليصبح أعظم قوة بلا بوصلة أخلاقية عرفها العصر الحديث. وحينها لن يكون السؤال: هل نحن قلقون على الناس؟ بل: لماذا تأخرنا في القلق حتى فات الأوان؟
*لواء ركن طيار متقاعد


