تناولت حلقة معاد بثها من برنامج “ديانات العالم” في إذاعة RFI سؤال ما الذي يمكن أن تقدمه تقنيات الذكاء الاصطناعي للأديان، وما المخاطر والتحديات المرتبطة بها. انطلقت الحلقة من تجربة موسيقية قصيرة: ترنيمة دينية بلحن لاتيني ووقع غريغورياني تم توليدها خلال دقيقة واحدة عبر طلب بسيط لنظام توليدي، ما أثار مسألة الثقة في ما يُسمع والقدرة على التمييز بين الأصل البشري والمحاكاة الاصطناعية. وقد رُبطت هذه التجربة بمشكلتي التشابه المضلِّل وفحص النية البشرية حين تمر عبر إنتاج صناعي لا يملك قصداً ذاتياً.
رُصدت في النقاش مخاوف معرفية وأخلاقية واسعة: الإيهام بالكمال عبر تقليد شبه تام، صعوبة التفرقة بين المحتوى المصطنع والبشري في النص والصوت والصورة، والإغراء بالسرعة وتقليص الجهد على حساب جودة العمل والمعرفة المتراكمة بالتكرار والتدريب. أُشير إلى أن الذكاء الاصطناعي التوليدي يشتغل إحصائياً على وحدات لغوية دون مرجعية رمزية مباشرة، ما قد يفضي إلى “هلوسات” ومزج غير منضبط للمصادر، ويخلق التباسات أخطر حين يتعلق الأمر بنصوص مقدسة أو تراث ديني طويل له طبقات تفسير وسياقات تاريخية.
تطرّق الضيوف إلى البعد الأنثروبولوجي: انجذاب البشر إلى محاكاة الذات منذ الأساطير القديمة وصولاً إلى أنماط تواصل اليوم المتزايدة عبر الشاشات، وما يصاحبه من خطر “تشخيص” الآلة ومنحها صفات الإنسان. أُبرز أن الذكاء الاصطناعي يتفوّق في اكتشاف الأنماط ضمن كميات هائلة من البيانات لكنه يظل “لاشخصياً”، وأن القوة الحقيقية تكمن في الاستخدام التحليلي والتنبّئي المنضبط (مثل كشف الإشارات المبكرة في صور طبية)، بينما يفتح التوليد اللغوي باباً واسعاً للالتباس إذا غاب الإطار الخبير والتمحيص.
نُوقشت فكرة “منظومات مغلقة” مخصّصة لكل ديانة، بين من يرى فيها وسيلة لضبط المرجعيات وبين من يحذّر من انغلاق يخالف الطابع الكوني لبعض التقاليد ومن خطر إضعاف التفكير الديني إذا تحوّل النظام إلى مُجيب جاهز. ذُكرت مبادرات قائمة مثل روبوتات محادثة مستندة إلى خطب أو تفاسير، ومشروع “Virtual Havruta” في الأوساط اليهودية المصمم لدفع الدارس إلى الأسئلة والمسارات المرجعية بدل الاكتفاء بإجابات مباشرة، على اعتبار أن قيمة الدراسة الدينية تُبنى بالحوار والاختلاف المنهجي والعودة إلى المصادر مع توثيق دقيق.
في السياق الكاثوليكي، أُشير إلى اهتمام مبكر في الفاتيكان بمسألة الذكاء الاصطناعي، وإلى وثيقة “Antiqua et Nova” التي تحذّر من ترك الخوارزميات خارج ضوابط الكرامة الإنسانية والعدالة، وتدعو إلى أن تكون التقنيات في خدمة الإنسان لا العكس. طُرحت كذلك مقاربة البابا الحالي الذي يضع الثورة الرقمية ضمن سلسلة تحولات صناعية تستدعي تجديد التفكير الاجتماعي والأخلاقي، مع التشديد على ألا تتحول الأدوات التوليدية إلى “مرافقين روحيين” بدائل عن البشر، لما يترتب على ذلك من إسقاطات نفسية وتلاعب عاطفي وخلط بين النصيحة المؤتمتة والإرشاد الإنساني المسؤول.
امتد النقاش إلى الصحة النفسية، ولا سيما عند الشباب، حيث تُستعمل أدوات المحادثة لحالات شخصية حساسة وتُمنح لها ثقة غير مستحقة، بينما لا تمتلك جسداً أو إحساساً أو نية أو وعي. حُذّر من الإدمان وتآكل التفاعل الاجتماعي المباشر، ومن “التصديق” الساذج للناتج الآلي بوصفه معرفة. واقترِحت مقاربة ثلاثية للتعامل: قانون واضح قابل للتنفيذ، معايير صناعية منسجمة مع القانون، وتعليم أخلاقي ومجتمعي يشرح المفاهيم التقنية بصورة مبسطة من سنّ مبكرة، مع إضاءة على السيطرة على الانتباه والدوبامين والوعي بالمخاطر، إضافة إلى إدراج الكلفة البيئية العالية للحوسبة ضمن التربية على الاستخدام الرشيد.
خلصت الحلقة إلى أن الذكاء الاصطناعي يمكن أن يكون نافعاً حين يُستخدم تحت نظر الخبراء في التحليل والتنظيم والترجمة، لكنه يحمل مخاطر كبيرة إذا استُخدم كمصدر نهائي للمعنى الديني أو كبديل للعلاقة البشرية والتعليم النقدي. المطلوب هو بناء ثقافة تحقق وتوثيق وتربية على السؤال، وإبقاء الإنسان في صلب الدرس والتفسير والقرار، مع تمييز ما يُنتج آلياً عن الإبداع البشري واحترام تاريخ النصوص وقدسيتها.