موقع أبونا abouna.org - إعلام من أجل الإنسان | يصدر عن المركز الكاثوليكي للدراسات والإعلام في الأردن - رئيس التحرير: الأب د.رفعت بدر
تحت عنوان "الحفاظ على الأصوات والوجوه البشرية"، صدرت رسالة البابا لاون الرابع عشر بمناسبة اليوم العالمي الستين لوسائل التواصل الاجتماعيّة، واضعًا في صلبها موضوع التواصل الرقمي والذكاء الاصطناعي، ومشدّدًا على ضرورة حماية الكرامة الإنسانية في زمن باتت ملامحه تتشكّل على نحو متزايد بفعل الابتكار التكنولوجي.
وفيما يلي النص الكامل للرسالة:
أيها الإخوة والأخوات الأعزاء!
إن الوجه والصوت هما سمتان فريدتان ومميزتان لكل شخص؛ يظهران هويته التي لا تتكرر، وهما العنصر المكون لكل لقاء. إن اليونانيين القدماء في الواقع قد استخدموا كلمة "وجه" (prósopon) لتعريف الكائن البشري، وهي تشير إلى ما يقع أمام النظرة، ومكان الحضور والعلاقة. أما المصطلح اللاتيني للشخص (persona) من (personare) فهو يتضمن الصوت: ليس أي صوت، بل الصوت المميز لشخص ما. إنَّ الوجه والصوت هما مقدسان. لقد وهبنا إياهما الله الذي خلقنا على صورته ومثاله، داعياً إيانا إلى الحياة بالكلمة التي وجهها هو نفسه إلينا؛ كلمة يتردد صداها عبر القرون في أصوات الأنبياء، وصارت جسداً في ملء الزمان. هذه الكلمة - هذا التواصل الذي يقوم به الله عن نفسه - أصبح مسموعًا ومرئيًّا مباشرة في صوت ووجه يسوع، ابن الله.
منذ لحظة خلقه، أراد الله أن يكون الإنسان محاوره، وكما يقول القديس غريغوريوس النيصي، فقد طبع على وجهه انعكاساً للحب الإلهي، لكي يتمكن من أن يعيش إنسانيته بالكامل من خلال الحب. لذا، فإن الحفاظ على الوجوه والأصوات البشرية يعني الحفاظ على هذا الختم، هذا الانعكاس الذي لا يمحى لمحبة الله. نحن لسنا نوعاً مكوناً من خوارزميات بيوكيميائية محددة مسبقاً: فكل شخص يمتلك دعوة لا غنى عنها ولا تتكرر، تنكشف في مسار الحياة وتتجلى بدقة في التواصل مع الآخرين. إن التكنولوجيا الرقمية، إذا قصرنا في حمايتها، تهدد بتغيير بعض الركائز الأساسية للحضارة الإنسانية التي نعتبرها أحياناً من المسلمات. فمن خلال محاكاة الأصوات والوجوه البشرية، والحكمة والمعرفة، والوعي والمسؤولية، والتعاطف والصداقة، لا تكتفي الأنظمة المعروفة باسم الذكاء الاصطناعي بالتدخل في النظم المعلوماتية فحسب، بل تغزو أيضاً أعمق مستويات التواصل: مستوى العلاقة بين البشر. لذلك، فإن التحدي ليس تقنياً، بل هو تحدٍّ أنثروبولوجي. إن الحفاظ على الوجوه والأصوات يعني في نهاية المطاف الحفاظ على أنفسنا. إن قبول الفرص التي توفرها التكنولوجيا الرقمية والذكاء الاصطناعي بشجاعة وتصميم وتمييز، لا يعني أن نحجب عن أنفسنا نقاط النقد، والغموض، والمخاطر.
هناك أدلة كثيرة منذ فترة طويلة على أن الخوارزميات المصممة لزيادة التفاعل على وسائل التواصل الاجتماعي -وهو أمر مربح للمنصات- تكافئ العواطف السريعة وتُعاقب التعبيرات البشرية التي تحتاج إلى وقت أطول، مثل جهد الفهم والتأمل. ومن خلال حصر مجموعات من الناس في "فقاعات" من التأييد السهل أو الغضب السهل، تضعف هذه الخوارزميات القدرة على الاصغاء والتفكير النقدي وتزيد من الاستقطاب الاجتماعي. يُضاف إلى ذلك اعتماد غير نقدي وساذج على الذكاء الاصطناعي باعتباره "صديقاً" كلي المعرفة، وموزِّعًا لجميع المعلومات، وأرشيفاً لكل ذاكرة، و"عرّافاً" لكل نصيحة. كل هذا يمكنه أن يؤدي إلى تآكل قدرتنا على التفكير بشكل تحليلي وإبداعي، وفهم المعاني، والتمييز بين القواعد اللغوية والدلالات والمعاني.
ورغم أن الذكاء الاصطناعي يمكنه أن يقدم الدعم والمساعدة في إدارة مهام التواصل، إلا أن التهرب من جهد التفكير الشخصي والاكتفاء بـ "تجميع إحصائي اصطناعي" يهدد على المدى الطويل بتآكل قدراتنا المعرفية والعاطفية والتواصلية. خلال السنوات الأخيرة، أصبحت أنظمة الذكاء الاصطناعي تسيطر بشكل متزايد على إنتاج النصوص والموسيقى والفيديو. وهكذا يواجه جزء كبير من الصناعة الإبداعية البشرية خطر التفكيك والاستبدال بملصق "مدعوم بالذكاء الاصطناعي"، مما يحول الناس إلى مجرد مستهلكين سلبيين لأفكار "غير مفكّر فيها"، ومنتجات مجهولة الهوية، بلا أب وبلا حب. بينما تُختزل روائع العبقرية البشرية في مجالات الموسيقى والفن والأدب إلى مجرد حقل تدريب للآلات. إن المسألة التي تهمنا ليست ما تستطيع أو ستستطيع الآلة فعله، بل ما يمكننا وسنتمكن نحن من فعله، من خلال النمو في الإنسانية والمعرفة، والاستخدام الحكيم لأدوات قوية كهذه في خدمتنا. لطالما كان الإنسان يميل إلى الاستيلاء على ثمرة المعرفة بدون عناء المشاركة والبحث والمسؤولية الشخصية. وبالتالي فإن التخلي عن العملية الإبداعية والتنازل للآلات عن وظائفنا الذهنية وخيالنا يعني دفن المواهب التي نلناها من أجل النمو كأشخاص في علاقة مع الله ومع الآخرين. إنه يعني إخفاء وجوهنا، وإسكات أصواتنا.
بينما نتصفح تدفقات المعلومات الخاصة بنا (Feeds)، يصبح من الصعب بشكل متزايد معرفة ما إذا كنا نتفاعل مع بشر آخرين أم مع "بوتات" أو "مؤثرين افتراضيين". إن التدخلات غير الشفافة لهذه العوامل المؤتمتة تؤثر على النقاشات العامة وخيارات الأشخاص. وبشكل خاص، تبين أن "الروبوتات التخاطبيّة"(Chatbots) المبنية على النماذج اللغوية الكبيرة (LLM) هي فعالة بشكل مدهش في الإقناع الخفي، من خلال التحسين المستمر للتفاعل الشخصي. إن البنية الحوارية والمتكيفة والمحاكية لهذه النماذج هي قادرة على تقليد المشاعر البشرية وبالتالي محاكاة العلاقة. هذه الأنثروبومورفية، التي قد تكون مسلية في بعض الأحيان، هي في الوقت عينه خادعة، لاسيما للأشخاص الأكثر ضعفاً. لأن الروبوتات التخاطبيّة التي تظهر "عاطفية" بشكل مفرط، بالإضافة إلى كونها حاضرة وجاهزة دائماً، يمكنها أن تصبح مهندسة خفية لحالاتنا العاطفية، وبهذه الطريقة تغزو وتحتل مجال خصوصية الأشخاص. إن التكنولوجيا التي تستغل حاجتنا للعلاقة لا يمكنها أن تؤدي فقط إلى عواقب مؤلمة على مصير الأفراد، بل يمكنها أن تضر أيضاً بالنسيج الاجتماعي والثقافي والسياسي للمجتمعات. يحدث هذا عندما نستبدل العلاقات مع الآخرين بعلاقات مع ذكاء اصطناعي مدرب على تصنيف أفكارنا، وبالتالي بناء عالم من المرايا حولنا، حيث كل شيء مصنوع "على صورتنا ومثالنا". وبهذه الطريقة، نسمح بأن تُسلب منا إمكانية لقاء الآخر، الذي يختلف دائمًا عنا، والذي يمكننا ويجب علينا أن نتعلم كيف نتعامل معه. بدون تقبل الاختلاف، لا يمكن أن تكون هناك علاقة أو صداقة.
تحدٍ كبير آخر تفرضه هذه الأنظمة الناشئة هو "التحيز" (bias)، الذي يؤدي إلى اكتساب ونقل تصور مشوه للواقع. إنَّ نماذج الذكاء الاصطناعي تتشكل وفقاً لرؤية العالم للذين يصنعونها، ويمكنها بدورها أن تفرض طرقاً للتفكير من خلال تكرار الصور النمطية والأحكام المسبقة الموجودة في البيانات التي تستمد منها. إن غياب الشفافية في تصميم الخوارزميات، إلى جانب التمثيل الاجتماعي غير الكافي للبيانات، يميل إلى جعلنا محاصرين في شبكات تتلاعب بأفكارنا وتُديم وتعمق التفاوتات والظلم الاجتماعي القائم. إنَّ الخطر كبير. وقوة المحاكاة تصل إلى حد أن الذكاء الاصطناعي يمكنه أن يخدعنا باختلاق "واقع" موازٍ، والاستيلاء على وجوهنا وأصواتنا. نحن منغمسون في عالم متعدد الأبعاد، حيث يصبح من الصعب بشكل متزايد التمييز بين الحقيقة والخيال. يضاف إلى ذلك مشكلة انعدام الدقة. فالأنظمة التي تروج لـ "احتمالية إحصائية" على أنها "معرفة" تقدم لنا في الواقع، في أحسن الأحوال، تقريبات للحقيقة، تكون أحياناً "هلوسات" حقيقية. إن غياب التحقق من المصادر، إلى جانب أزمة الصحافة الميدانية التي تتطلب عملاً مستمراً لجمع المعلومات والتحقق منها في أماكن وقوع الأحداث، يمكنه أن يهيئ تربة أكثر خصوبة للتضليل، مما يسبب شعوراً متزايداً بعدم الثقة والضياع وانعدام الأمن.
خلف هذه القوة الخفية الهائلة التي تشملنا جميعاً، لا توجد سوى حفنة من الشركات، تم تقديم مؤسسيها مؤخرًا على أنهم مبتكرو "شخصية العام ٢٠٢٥"، أي مهندسي الذكاء الاصطناعي. وهذا يثير قلقاً كبيراً بشأن السيطرة الاحتكارية على الأنظمة الخوارزمية والذكاء الاصطناعي القادرة على توجيه السلوكيات ببراعة، بل وإعادة كتابة التاريخ البشري -بما في ذلك تاريخ الكنيسة- غالباً بدون أن نتمكن من التنبُّه لذلك حقاً. إن التحدي الذي ينتظرنا لا يكمن في وقف الابتكار الرقمي، بل في توجيهه، وفي أن نكون على دراية بطبيعته المزدوجة. وبالتالي يقع على عاتق كل واحد منا أن يرفع صوته دفاعًا عن البشر، لكي نتمكن حقًا من دمج هذه الأدوات كحلفاء لنا. هذا التحالف ممكن، لكنه يحتاج إلى الاستناد لثلاث ركائز: المسؤولية، والتعاون، والتربية.
أولاً، المسؤولية: يمكن صياغتها، حسب الأدوار، كصدق، وشفافية، وشجاعة، وقدرة على الرؤية، وواجب مشاركة المعرفة، والحق في الحصول على المعلومات. وبشكل عام، لا يمكن لأحد أن يتهرب من مسؤوليته تجاه المستقبل الذي نبنيه. بالنسبة للذين هم على قمة المنصات الإلكترونية، هذا يعني التأكد من أن استراتيجيات شركاتهم لا تستند إلى معيار وحيد هو تعظيم الربح، بل أيضاً إلى رؤية بعيدة المدى تراعي الصالح العام، بنفس الطريقة التي يهتم بها كل منهم برفاهية أبنائه. كذلك يُطلب من مبتكري ومطوري نماذج الذكاء الاصطناعي الشفافية والمسؤولية الاجتماعية فيما يتعلق بمبادئ التصميم وأنظمة الإشراف التي تقوم عليها خوارزمياتهم ونماذجهم المطورة، من أجل تشجيع التوافق المستنير من جانب المستخدمين. وتقع المسؤولية عينها على عاتق المشرعين الوطنيين والمنظمين فوق الوطنيين، الذين يتولون مهمة مراقبة احترام كرامة الإنسان. ويمكن أن تحمي اللوائح التنظيمية المناسبة الأشخاص من التعلق العاطفي بالروبوتات التخاطبية وتحدَّ من انتشار المحتوى المزيف أو المضلل، مما يحافظ على سلامة المعلومات مقابل محاكاة خادعة لها.
لا يمكن لشركات الإعلام والاتصالات أن تسمح بدورها بأن تتغلب الخوارزميات التي تهدف إلى الفوز بأي ثمن في معركة الحصول على بضع ثوانٍ إضافية من الاهتمام على الأمانة لقيمها المهنية، التي تهدف إلى البحث عن الحقيقة. إن ثقة الجمهور تُكتسب بالدقة والشفافية، وليس بالسعي وراء أي نوع من المشاركة. يجب الإبلاغ عن المحتوى الذي تم إنشاؤه أو التلاعب به بواسطة الذكاء الاصطناعي وتمييزه بوضوح عن المحتوى الذي تم إنشاؤه بواسطة البشر. يجب حماية حقوق التأليف والملكية السيادية لعمل الصحفيين وغيرهم من منشئي المحتوى. إنَّ المعلومات هي ملكية عامة. والخدمة العامة البناءة والهامة لا تستند إلى الغموض، بل إلى شفافية المصادر وإشراك الأطراف المعنية ومعايير الجودة العالية. نحن جميعًا مدعوون للتعاون. لا يمكن لأي قطاع بمفرده مواجهة التحدي المتمثل في قيادة الابتكار الرقمي وحوكمة الذكاء الاصطناعي. لذلك من الضروري إنشاء آليات حماية. يجب إشراك جميع الأطراف المعنية - من صناعة التكنولوجيا إلى المشرعين، ومن الشركات الإبداعية إلى الأوساط الأكاديمية، ومن الفنانين إلى الصحفيين والمربين - في بناء مواطنة رقمية واعية ومسؤولة وجعلها فعالة.
وهذا ما تهدف إليه التربية: زيادة قدراتنا الشخصية على التفكير النقدي، وتقييم موثوقية المصادر والمصالح المحتملة الكامنة وراء اختيار المعلومات التي تصل إلينا، وفهم الآليات النفسية التي تحركها، والسماح لعائلاتنا وجماعاتنا وجمعياتنا بوضع معايير عملية لثقافة اتصال أكثر صحة ومسؤولية. ولهذا السبب، من الملحّ أكثر من أي وقت مضى إدخال محو الأمية الإعلامية والمعلوماتية والذكاء الاصطناعي في أنظمة التعليم على جميع المستويات، وهو ما تعمل بعض المؤسسات المدنية على تعزيزه. ككاثوليك، يمكننا ويجب علينا أن نقدم مساهمتنا، لكي يكتسب الأشخاص – ولاسيما الشباب – القدرة على التفكير النقدي وينموا في حرية الروح. كما ينبغي دمج محو الأمية في مجال الإعلام والذكاء الاصطناعي في مبادرات أوسع نطاقًا للتعليم المستمر، بحيث تشمل أيضًا المسنين والأفراد المهمشين في المجتمع، الذين غالبًا ما يشعرون بالاستبعاد والعجز في مواجهة التغيرات التكنولوجية السريعة.
إنَّ محو الأمية في مجال الإعلام والذكاء الاصطناعي سيساعد الجميع على عدم التكيف مع الانجراف الأنثروبومورفي لهذه الأنظمة، بل التعامل معها كأدوات، واستخدام التحقق الخارجي دائمًا من المصادر –التي قد تكون غير دقيقة أو خاطئة– التي توفرها نظم الذكاء الاصطناعي، وحماية خصوصيتهم وبياناتهم من خلال معرفة معايير الأمان وخيارات الطعن. من المهم أن نربي الآخرين ونربي أنفسنا على استخدام الذكاء الاصطناعي بطريقة مقصودة، وفي هذا السياق حماية صورتنا (الصور والصوت) ووجهنا وصوتنا، لمنع استخدامها في إنشاء محتوى وسلوكيات ضارة مثل الاحتيال الرقمي والتسلط عبر الإنترنت والتزييف العميق الذي ينتهك خصوصية وحميمية الأشخاص بدون موافقتهم. ومثلما تطلبت الثورة الصناعية معرفة القراءة والكتابة الأساسية لتمكين الأشخاص من الاستجابة للحداثة، فإن الثورة الرقمية تتطلب أيضًا محو الأمية الرقمية (إلى جانب التنشئة الإنسانية والثقافية) لفهم كيفية تشكيل الخوارزميات لتصورنا للواقع، وكيفية عمل تحيزات الذكاء الاصطناعي، وما هي الآليات التي تحدد ظهور محتويات معينة في تدفقات المعلومات الخاصة بنا، وما هي الافتراضات والنماذج الاقتصادية لاقتصاد الذكاء الاصطناعي وكيف يمكن أن تتغير.
نحن بحاجة إلى أن يعود الوجه والصوت للتعبير عن الشخص. نحن بحاجة إلى أن نحافظ على عطيّة التواصل باعتبارها أعمق حقيقة للإنسان، والتي يجب أن يُوجَّه نحوها كل ابتكار تكنولوجي. في طرح هذه الأفكار، أشكر جميع الذين يعملون من أجل الأهداف المطروحة هنا وأبارك من كل قلبي جميع الذين يعملون من أجل الخير العام بواسطة وسائل الاتصال.