هل سمعتَ يوماً أن قراءة الأدب لمدة ثلاث دقائق تجعل الناسَ أكثر تعاطفاً؟ وهل سمعتَ أن الاحتفاظ بحافظة أثقل بالمواد يعزز احتماليةَ ترشيحك من المدير لوظيفة ما؟ الصحافة الشعبية لها شغف بنتائج مثل هذه في العلوم الاجتماعية، لكنها قد لا تكون صحيحة. فقد أدت محاولات التوصل إلى النتائج نفسها إلى اكتشاف صادم في عام 2015 مفاده أنه لا يمكن التحقق إلا من أقل من 40 بالمئة من الأوراق البحثية في مجلات علم النفس التي راجعها باحثون متخصصون. وبالمثل، ظهرت نتائج بائسة في علم الاقتصاد، وبعض بحوث الطب الحيوي، بما في ذلك بيولوجيا السرطان. ومنذئذ، يحاول الباحثون إيجادَ طرقٍ أفضلَ لفصل ما هو سمين عما هو غث. فقبل بضع سنوات، توصلت مجموعةٌ من علماء الاجتماع إلى أن تنبؤ المعلومات، أي سؤال الناس عن رأيهم في مدى صحة الورقة البحثية، كان أفضل بكثير من مراجعة النظراء القياسية. لكن هذا يتطلب زيادةَ عدد الأشخاص الذين يفحصون ورقةً بحثيةً من ثلاثة إلى 100. وهذا ليس حلاً قابلاً للتوسع على نطاق كبير. 
والآن، تُحقِّق برامجُ التعلّم الآلي فيما يبدو نتائج بالمستوى نفسه من الجودة، ويأتي مزيد منها بفضل ملايين الدولارات التي يتم استثمارُها في الجهود التي تبذلها وكالة مشروعات الأبحاث الدفاعية المتقدمة. ومثلما يتدرب برنامج «تشات جي. بي. تي» باستخدام نصوص كثيرة، يتم تدريب أنظمة لتقييم الأوراق البحثية باستخدام البيانات التي جمعتها المحاولاتُ المضنيةُ للتحقق من مئات الدراسات. ثم تُختبر هذه الأنظمة الذكية باستخدام دراسات لم ترَها. وتشير النتائج الأولية إلى أن الروبوتات لها قدرةُ 100 خبير بشري في التخلص من النشاز. كما أنها أفضل بكثير فيما يبدو من المحررين البشريين في المجلات والصحف العلمية. 
ويرى بريان أوزي، عالِم النفس في جامعة نورث ويسترن، الذي قاد دراسةً عن التعلم الآلي نُشرت مؤخراً في دورية محاضر الأكاديمية القومية للعلوم، أن الدراسات الأقل ترجيحاً في صحتها هي تلك التي تحظى باهتمام الصحافة. ودعم كثير من تلك الدراسات اللافتة للانتباه وجهة نظر تجوهلت الآن، مفادها أن الناس تحاصرهم محفزات غير ذات صلة فيما يبدو بطريقة قابلة للقياس ويمكن التنبؤ بها. ويرى أوزي أن مشكلة التحقق عبر دراسات متعددة تعود إلى عام 2011، حين نشرت مجلة بارزة ورقة بحثية تدعي أن الأشخاص الخاضعين للتجربة يمكنهم رؤية المستقبل، أي لديهم حاسة تنبؤ استثنائية. 
واتبع البحث طرائق معيارية في هذا المجال، الأمر الذي أثار قلق أشخاص قليلين فقط من وجود خطأ ما في هذه التقنيات. وتَعرّف بعضُ المنتقدين على استخدام معيب للأساليب الإحصائية، وهو شكل من أشكال التلاعب بالبيانات لتقديم تصور مغلوط. وأشار أوزي إلى أن القرصنة الإلكترونية لم تكن هي المشكلة في معظم الأوراق غير القابلة لإعادة الإنتاج. وكانت المشكلة الأعمق هي أنه في المجالات التي تنطوي على السلوك البشري، ليس من الواضح دائماً ما الذي يجعل افتراضاً ما استثنائياً. وهذا يجعل من الصعب اتباع النصيحة التي تحض على استخدام أدلة الاستثنائية في حالة الفرضيات الاستثنائية، وهي فكرة تُنسب إلى ديفيد هيوم وكارل ساجان. ولتقديم مثال مقابل، نلجأ إلى علوم الفيزياء. فأي اكتشاف جديد ينتهك ميكانيكا الكم أو النسبية العامة يخضع دائماً لتدقيق إضافي، كما ينحي الفيزيائيون جانباً وبسرعة افتراضَ أن الجسيمات تتحرك بأسرع من الضوء. ولا يخضع السلوك البشري لنفس الإطار النظري. 
وفي عام 2018، أظهرت التجارب مع تنبؤ المعلومات أنه حين سأل باحثون مئةً من زملائهم من علماء الاجتماع للمراهنة على مدى احتمال تكرار مجموعة من النتائج في أبحاث متعددة، فإنهم حصلوا على النتائج بشكل صحيح في 75 بالمئة من المرات. وهذا هو معدل النجاح نفسه الذي وجده أوزي مع التعلم الآلي، لكن الآلة عملت بشكل أسرع. وتجاوز كل من أسواق التنبؤ ونظام التعلم الآلي ما توفره مراجعة النظراء العادية من تصنيف مستويات الثقة. وكان كلا النظامين مناسبين 100 بالمئة لتلك الأوراق البحثية التي تندرج ضمن أعلى 15 بالمئة في نطاق الثقة. وذكر بريان نوسيك، عالم النفس بجامعة فيرجينيا الذي قاد الجهود الأولية لفهم ما أصبح يعرف بأزمة التحقق عبر دراسات متعددة لنفس الظاهرة، أن جهداً أكبر مولته وكالةُ مشروعات الأبحاث الدفاعية المتقدمة سيُنتج عدةَ أنظمة تقييمٍ مختلفة وسيركز بعضها على عوامل خارجية مثل سجلات تتبع المؤلفين والمواضع التي تم فيها الاستشهاد بالورقة البحثية. 
هل سيجعل مثلُ هذا النظام الدخولَ إليه أصعب على الباحثين الجدد؟ ليس بالضرورة، فقد تكون أداة يمكنهم استخدامها لحماية أنفسهم من الأخطاء وجعل شخص آخر يشير إليها لاحقاً. وأشارت آنا دريبر، الباحثة في كلية ستوكهولم للاقتصاد، أنه بتمكنها من استخدام هذا النوع من المساعدة حين قادت دراسة تظهر فيما يبدو أن هناك ارتباطاً بين جينات معينة والمجازفة المالية. ولا يمكن التحقق منه بتكراره، وهي تأسف لما أنفقته من وقت في المشروع. والآن، تقود دريبر جهوداً لتحسين موثوقية الأعمال المنشورة في الاقتصاد. وإذا لم يحدد الباحثون أنفسُهم المشكلةَ، فقد يكون التعلّم الآلي مفيداً في السلسلة، لمساعدة محرري المجلات والصحفيين وصانعي السياسات على تقييم البحث. وربما، قد يستخدم في المستقبل لمواجهة الأوراق العلمية التي تنشرها برامج اللغات الكبيرة مثل «تشات جي. بي. تي». وقد يتيسر تعليم الآلات كيفية اكتشاف الأخطاء واستخراج المعلومات الخاطئة التي تقع دون اكتراث. وذكر بريان نوسيك، من جامعة فيرجينيا، أنها تشبه «نوعاً ما مثل فيلم ماتريكس في الأجزاء اللاحقة من السلسلة، فهناك آلات خيرة، وآلات شريرة تتصارع فيما بينها». ولن تكون هذه نتيجة سيئة. وإذا لم يكن البشر قادرين بعد على فهم كيفية عمل عقولنا، فهم على الأقل قادرون على اختراع آلات تساعدهم على فهم هذا. 

ينشر بترتيب خاص مع خدمة «واشنطن بوست لايسينج آند سينديكيشن»