في عصر الذكاء الاصطناعي والجريمة السيبرانية، لا يزال لبنان يدير شؤونه القانونية والأمنية بعقليّة تنتمي إلى قرنٍ مضى. إعلانُ بريطانيا عن إنشاء جهاز شرطة وطني حديث، يُشبه من حيث الصلاحيات والقدرات نموذجًا متقدّمًا لمكتب التحقيقات الفيدرالي، لا يُقرأ بوصفه إصلاحًا إداريًا فحسب، بل باعتباره موقفًا سياسيًا واضحًا: الجريمة الحديثة لا تُواجَه إلّا بأدوات حديثة، وبقانونٍ كُتِب لعصر التكنولوجيا، لا لعصر الملفات الورقية. في الدول التي تفهم معنى السيادة الرقمية، تُعاد هندسة المؤسسات الأمنية على أسس تقنية، وتُحدَّث القوانين لملاحقة الجرائم العابرة للحدود، والاحتيال المالي المعقّد، والاستغلال عبر الإنترنت، وغسل الأموال الرقمي. أمّا في لبنان، فما زالت الدولة تحاول مقاربة جرائم القرن الحادي والعشرين بتشريعات تعود جذورها إلى زمن الانتداب، بعضها لا يُطبّق أصلًا، ما يجعل السؤال بديهيًا: كيف يمكن تطوير قانونٍ لا يُحترم، لملاحقة جرائم متطوّرة بطبيعتها؟ قانون لا يُطبّق… فكيف يُحدَّث؟ المعضلة اللبنانية لا تكمن فقط في قِدَم التشريعات، بل في هشاشة تطبيقها. قوانين جنائية أساسية، وُضعت في سياقات تاريخية مختلفة جذريًا، ما زالت تُدار بآليات بطيئة وانتقائية، أُفرغت من فعاليتها بفعل الممارسة لا النص. وإذا كان القانون التقليدي نفسه عاجزًا عن فرض العدالة بصرامة، فكيف يمكن التعويل على قدرة الدولة على سنّ قانون إلكتروني حديث، أو على بناء نظام قضائي قادر على التعامل مع الأدلة الرقمية، والتعاون الدولي، والتحقيقات السيبرانية المعقّدة؟ الواقع أن لبنان لم يفشل في مواكبة التطور التشريعي العالمي فحسب، بل أخفق حتى في فرض احترام قوانينه القديمة. هذا الفشل البنيوي يترك البلاد مكشوفة أمام موجات متصاعدة من الجرائم الإلكترونية: من الابتزاز الرقمي إلى سرقة البيانات، ومن الاحتيال المالي العابر للحدود إلى اقتصاد الظلّ الرقمي، من دون منظومة ردع فعّالة أو جهاز متخصّص يمتلك الأدوات القانونية والتقنية اللازمة. فراغ أمني في الفضاء الرقمي بينما تُنشئ الدول أجهزة متخصّصة للشرطة الإلكترونية وتستثمر في الذكاء الاصطناعي والتحقيق الرقمي، لا يزال لبنان يفتقر إلى جهاز وطني متكامل يتمتّع باستقلالية تقنية، وصلاحيات قانونية واضحة، وقدرة فعلية على ملاحقة الجرائم في الفضاء السيبراني. تحوّل الفضاء الرقمي اللبناني عمليًا إلى ساحة مفتوحة، تتحرّك فيها شبكات الاحتيال والابتزاز وتجارة البيانات من دون خوف حقيقي من الملاحقة. ضعف البنية التقنية للأجهزة الأمنية، وغياب إطار قانوني حديث لحماية البيانات والخصوصية، وتأخّر القضاء في استيعاب الأدلة الرقمية، عوامل تتكامل لتجعل من لبنان حلقة هشّة في منظومة الأمن الإقليمي والدولي. المشكلة لم تعد تقنية فقط، بل سياسية بامتياز. فالدولة التي لا تعتبر الأمن الرقمي أولوية سيادية، تفقد تدريجيًا قدرتها على حماية اقتصادها، ومواطنيها، ومؤسساتها، وتتحوّل إلى بيئة جاذبة للجريمة المنظّمة والاقتصاد غير المشروع. التجارب الدولية المتقدّمة تُظهر بوضوح أن الأمن الحديث يقوم على ثلاثة أعمدة: قانون رقمي حديث، شرطة إلكترونية محترفة، وقضاء قادر على مواكبة الأدلة والتقنيات الجديدة. في لبنان، الأعمدة الثلاثة متصدّعة: قانون قديم لا يُطبّق، جهاز أمني غير مهيّأ رقميًا، وقضاء مثقل بالتأخير والقصور التشريعي. اختبار سيادي أخير لم تعد القضية مسألة إصلاح تقني أو مطلب إداري، بل اختبارًا سياديًا حاسمًا. فإمّا أن يخرج لبنان من أسر قوانين الانتداب، ويؤسّس لإطار قانوني رقمي حديث، وشرطة متخصّصة، وقضاء قادر على ملاحقة الجرائم في عصر التكنولوجيا، وإمّا أن يبقى عالقًا في زمن قانون لا يُطبّق، ودولة تتراجع فيما الجريمة تتقدّم. في عالم باتت فيه السيادة تُقاس بقدرة الدول على حماية فضائها الرقمي كما تحمي حدودها الجغرافية، يبدو لبنان اليوم خارج المعادلة. والسؤال لم يعد متى سيلتحق بالعصر الرقمي، بل: كم من الوقت يستطيع الصمود قبل أن يتحوّل الفراغ القانوني والأمني إلى تهديدٍ وجودي لدولته ومجتمعه؟ الفجوة بين سرعة الجريمة الرقمية وبطء الدولة اللبنانية تتّسع يومًا بعد يوم. ومع كل تأخير في تحديث القوانين وبناء القدرات التقنية، تتراجع قدرة الدولة على حماية نفسها، وتتكرّس صورتها ككيان عاجز عن فرض القانون في الشارع، فضلًا عن فرضه في الفضاء الإلكتروني.
آلةٌ تُجيب… ولا تسأل في البداية، لم يكن الذكاءُ الاصطناعيُّ ثورةً، بل وعدًا عمليًّا.آلةٌ تُجيب حين تُسأل، تُصنِّف حين نطلب منها التصنيف، وتُحسِن الأداء كلّما أغرقناها بالمزيد من البيانات. كان ذلك كافيًا لإبهار الأسواق، وإرباك المهن، وإقناع العالم بأنّ المستقبل قد وصل مبكرًا.هذا هو الذكاءُ الاصطناعيُّ (AI) كما نعرفه اليوم: عقلٌ صناعيٌّ مُدرَّب بإتقان، لكنّه لا يعرف سوى ما عُلِّم له. لا يخرج عن المسار، ولا يُعيد التفكير في الغاية، ولا يشكّ في السؤال نفسه. هو بارع، نعم، لكنّه يظلّ وفيًّا لدوره كمنفّذٍ ممتاز داخل نصٍّ كتبه غيره. تعليمُ المعلِّم AI لا يتعلّم لأنّه يريد أن يتعلّم، بل لأنّه طُلب منه ذلك.ثمّ بدأ السؤال يتبدّل، بهدوءٍ مُقلِق.ماذا لو لم نُدرِّب الآلة على الإجابة فقط، بل على كيف تُدرِّب نفسها؟ماذا لو لم نُعطِها مهمّة، بل منحناها القدرة على اختيار المهمّة، وتقييم أدائها، وإعادة بناء فهمها للعالم؟هنا، يظهر الذكاءُ الاصطناعيُّ العام (AGI)، لا كترقية تقنيّة، بل كتحوّلٍ سرديٍّ كامل في قصّة العلاقة بين الإنسان والآلة.AGI ليس آلةً أذكى، بل آلة تعرف كيف تصبح أذكى دون أن نُمسك بيدها في كلّ خطوة.الفرق الجوهريّ بين AI وAGI هو أنّ الأوّل نتاج تدريبٍ بشريٍّ مستمرّ، أمّا الثاني فهو مشروع تدريب الآلة للآلة.نضع البذرة الأولى، ثمّ نراقب النظام وهو يختبر نفسه، يكتشف أخطاءه، يُعيد تشكيل نماذجه، ويتعلّم خارج حدود البيانات التي منحناه إيّاها.في هذه اللحظة، يتغيّر دور الإنسان: من مُدرِّسٍ دائم… إلى مُطلِقٍ للفكرة. من مَن يضع الأسئلة… إلى مَن يواجه أسئلة لم يتوقّعها. من التنفيذ إلى الفهم الذكاءُ الاصطناعيُّ الحاليّ يتقن الفعل، لكنّه لا يفهم معناه. يعرف كيف، لكنّه لا يسأل لماذا.أمّا AGI، فمشروعه أعمق: فهم السياق، نقل المعرفة بين العوالم، وإنتاج حلولٍ لم تمرّ عليه في التدريب.الفرق بينهما يشبه الفرق بين آلةٍ تحفظ النوتة الموسيقيّة بدقّة، وعقلٍ يسمع اللحن للمرّة الأولى ثمّ يُعيد تأليفه. ليس القلقُ تقنيًّا ما يجعل AGI مادّةً للقلق العالميّ ليس قوّته الحاسوبيّة، بل استقلاليّته المعرفيّة.فنحن، للمرّة الأولى، نقترب من نظامٍ لا ينتظر تحديثًا بشريًّا كي يتطوّر، ولا يتوقّف عند حدود التخصّص الواحد، ولا يسير بالسرعة التي اعتدنا عليها نحن.AI حسَّن أدواتنا. AGI قد يُعيد تعريف موقعنا.الاعتقاد السائد أنّ AGI مجرّد نسخةٍ متقدّمة من AI هو تبسيطٌ مُضلِّل.الحقيقة أنّه انتقال من ذكاءٍ يُدار… إلى ذكاءٍ يُدير ذاته. من أداةٍ محسوبة… إلى كيانٍ معرفيٍّ يتكوّن باستمرار.وهنا، يُعتَبَر الفارق ليس تقنيًّا بقدر ما هو حضاريًّا. السؤال الذي لا تستطيع الآلة تجاهُلَه حين نُعلِّم الآلة كيف تُعلِّم نفسها، فإنّنا لا نبتكر تقنيّةً جديدة فحسب، بل نكتب فصلًا جديدًا من علاقتنا مع المعرفة والسلطة والمسؤوليّة. AGI ليس تهديدًا بحدّ ذاته، ولا خلاصًا آليًّا كما يُروَّج له. إنّه اختبارٌ لنا نحن: هل نملك الحكمة لنضع حدودًا لما نُطلقه؟ وهل نحن مستعدّون لعالمٍ لا تكون فيه الآلة أذكى فحسب، بل أكثر قدرةً على التعلّم منّا؟ لأنّ أخطر ما في الذكاء الاصطناعيّ العام… أنّه قد يُجبر الإنسان أخيرًا على إعادة تعريف معنى الذكاء نفسه.
من يحكم العالم حين تختفي الأيدي؟ لم يعد الذكاء الاصطناعي ابتكارًا تقنيًا يُقاس بالكفاءة والسرعة، بل تحوّل إلى بنية حكم غير منتخبة، تُعيد ترتيب العالم بصمت، وتُعيد تعريف من يملك القرار، ومن يُستبعد منه.السؤال لم يعد: ماذا يستطيع الذكاء الاصطناعي أن يفعل؟ بل: لصالح من يعمل؟ ومن يضبط بوصلته القيمية؟ في هذا المناخ، يعود اسم «الماسونية» إلى التداول، لا بوصفه دليلًا قاطعًا، بل بوصفه رمزًا سياسيًا لسلطة تعمل من الخلف. فكل عصر ينتج لغته الخاصة لتسمية النفوذ غير المرئي، وعصر الخوارزميات لا يشذّ عن القاعدة. من الرمز التاريخي إلى البنية السلطوية تاريخيًا، لم تكن الماسونية مختبرًا علميًا ولا شركة برمجيات، لكنها مثّلت، في المخيال العام، نموذجًا للنفوذ الصامت: شبكات نخب، رمزية مغلقة، وتأثير بلا مساءلة شعبية. وحين يعجز المجتمع عن تسمية القوى التي تشكّل مصيره، يستحضر أسماء قديمة ليُفسّر واقعًا جديدًا. بهذا المعنى، السؤال الحقيقي ليس: هل تدير الماسونية الذكاء الاصطناعي؟ بل: لماذا أصبح الذكاء الاصطناعي شبيهًا، في بنيته السلطوية، بكل ما نُسب تاريخيًا إلى النخب المغلقة؟ تاريخيًا، لم تكن الماسونية مختبرًا علميًا ولا شركة برمجيات، لكنها مثّلت، في المخيال العام، نموذجًا للنفوذ الصامت: شبكات نخب، رمزية مغلقة، وتأثير بلا مساءلة شعبية الخوارزمية فوق السياسة الخطر الجوهري في الذكاء الاصطناعي لا يكمن في «الوعي الآلي»، بل في فصله عن المجال السياسي. الخوارزميات اليوم تؤثّر في الرأي العام، تحدّد ما يُرى وما يُحجب، تصوغ المزاج الجماعي، وتُعيد هندسة النقاش العام—من دون رقابة برلمانية حقيقية، ومن دون شفافية تتناسب مع حجم هذا التأثير. نحن أمام سلطة لا تحتاج إلى انقلاب، لأنها لم تعترف أصلًا بالنظام الذي يُفترض أن تنقلب عليه. من الرمز إلى الكود في العصور السابقة، كان النفوذ يُشفَّر بالرموز والطقوس. اليوم، يُشفَّر بالكود. الفرجار والمسطرة لم يعودا أدوات بناء، بل معادلات تضبط السلوك البشري. العين التي «ترى كل شيء» لم تعد رمزًا محفورًا في حجر، بل شبكة بيانات تعرف ما نحب، وما نكره، وما يغضبنا، وما يُبقينا أطول أمام الشاشة. الانتقال لم يكن من السرية إلى العلنية، بل من سرية مفهومة إلى غموض تقني مُقنَّن. لم تعد السيطرة الحديثة بحاجة إلى قمع مباشر. يكفي أن تُدار الرغبات، ويُعاد ترتيب الانتباه، وتُغرق الساحة بالضجيج بدل المعنى. محتوى يُضخ بكثافة، تفاهة تُكافأ، عنف يُطبَّع، وقيم تُفكَّك ببطء. ليس لأن «هناك جهة شريرة واحدة»، بل لأن منطق الخوارزمية يكافئ ما يُثير، لا ما يُنوِّر. هنا، يصبح الحديث عن «التحكّم بالعقول» توصيفًا سياسيًا دقيقًا، لا مبالغة خطابية. الحقيقة المُفلترة.. أخطر الأدوات التضليل في عصر الذكاء الاصطناعي لا يقوم على الكذب الصريح، بل على انتقاء الحقيقة. واقع يُعرض كما لو كان كاملًا، بينما هو في الحقيقة نتاج قرارات خفية: ماذا يتكرر؟ ماذا يختفي؟ وماذا يُضخ حتى يبدو طبيعيًا؟ تشير أبحاث متعددة إلى أن نسبة كبيرة مما يُستهلك رقميًا اليوم هو محتوى مُعاد تشكيله لخدمة التفاعل والربح والتوجيه، لا المعرفة. وهنا تتحوّل الخوارزمية من أداة تقنية إلى فاعل سياسي كامل الصلاحيات. من يملك الذكاء الاصطناعي… يملك السردية. السؤال الأخطر ليس فلسفيًا، بل سياديًا: من يملك البيانات؟ من يدرّب النماذج؟ من يقرّر المعايير الأخلاقية؟ في عالم تُدار فيه الحقيقة عبر الشاشات، تصبح السيطرة على البنية الرقمية أخطر من السيطرة على الحدود. الدول تتجادل، بينما الشركات العابرة للحدود تبني واقعًا موازيًا لا يخضع لسيادة أحد. هل المؤامرة هي المشكلة… أم غياب الديمقراطية الرقمية؟ الانشغال الحصري بالماسونية قد يُضلّل النقاش. المشكلة الأعمق هي تركّز القوة التقنية بلا مساءلة، وتحويل الذكاء الاصطناعي إلى منطقة معفاة من السياسة، رغم كونه الأداة السياسية الأكثر تأثيرًا في القرن الحادي والعشرين. السيطرة الناعمة لسنا بحاجة إلى تنظيم سري كي نشعر بالخطر. يكفي نظام عالمي يسمح لقلة غير منتخبة بإعادة تشكيل وعي الأغلبية. العالم يُعاد تشكيله… فهل نملك حق الاعتراض؟ هل نعيش أعظم ثورة معرفية في تاريخ البشر؟ أم أذكى عملية إعادة هندسة للوعي الجماعي؟ هل الذكاء الاصطناعي أداة تحرّر؟ أم سلطة جديدة لا تحتاج إلى دبابة ولا بيان؟ ربما لن نجد اسمًا واحدًا نُعلّق عليه كل المخاوف. لكن المؤكّد أن السلطة لم تختفِ، بل غيّرت لغتها. وفي عالم تحكمه الخوارزميات، أخطر ما يمكن أن يحدث… أن نعتاد.