ektsadna.com
ان اف تي

سباق بناء الذكاء الاصطناعي الشبيه بالله: مدينة فاضلة أم بائسة؟

“`html

المدينة الفاضلة أم المدينة البائسة؟ سباق بناء الذكاء الاصطناعي الشبيه بالله هو الرهان الأسمى للبشرية

اضطررت لعقد مقابلتين منفصلتين مع شركة Sentient لأتمكن من استيعاب المعلومات وهضمها والمتابعة. الذكاء الاصطناعي ليس مجال خبرتي، وهو موضوع أتوجس منه، بالنظر إلى أنني أجد صعوبة في رؤية نتائج إيجابية (وتصنيفي على أنني “متشائم من الذكاء الاصطناعي” في هذه الصناعة يكفي لجعلك مكروهاً).

ولكن منذ أن استمعت إلى الباحث في محاذاة وسلامة الذكاء الاصطناعي، إليعازر يودكوفسكي، على بودكاست Bankless في عام 2023، تردد كلماته في ذهني بشكل شبه يومي:

“أعتقد أننا نسمع آخر الرياح تبدأ بالهبوب ونرى نسيج الواقع يبدأ بالتمزق.”

لقد حاولت أن أبقي ذهني منفتحاً وأتعلم احتضان الذكاء الاصطناعي قبل أن يجرفني. لقد جربت تعديل مطالباتي وإنشاء بعض الميمز، لكن قلقي المضطرب لا يزال قائماً.

ما يزعجني أكثر هو أن الأشخاص الذين يبنون أنظمة الذكاء الاصطناعي يفشلون في تقديم تطمينات كافية، وأن الجمهور العام أصبح غير حساس لدرجة أنهم إما يضحكون على احتمال انقراضنا أو لا يمكنهم الاحتفاظ بالفكرة في رؤوسهم إلا بقدر مدة مقطع فيديو قصير على يوتيوب.

كيف وصلنا إلى هنا؟

همانشو تياغي، المؤسس المشارك لشركة Sentient، هو أستاذ مشارك في المعهد الهندي للعلوم. وقد أجرى أيضاً أبحاثاً تأسيسية في نظرية المعلومات، والذكاء الاصطناعي، والتشفير. فيفيك كولي، رئيس أركان شركة Sentient، خريج جامعة برينستون ولديه خلفية في الاستشارات، “مساعدة شركة بمليار [BCG] على كسب مليار دولار آخر” قبل مغادرة الجامعة.

كل من يعمل في Sentient يتمتع بذكاء لا يصدق. وبالنسبة لذلك، كل من يعمل في مجال الذكاء الاصطناعي كذلك. فكم سيكون الذكاء الاصطناعي العام (AGI أو الذكاء الاصطناعي الشبيه بالله) أكثر ذكاءً؟

بينما يعرف إيلون ماسك الذكاء الاصطناعي العام بأنه “أكثر ذكاءً من أذكى إنسان”، يقول سام ألتمان، الرئيس التنفيذي لشركة :

“الذكاء الاصطناعي العام هو مصطلح غير محدد بشكل جيد، ولكن بشكل عام، نعني به نظاماً يمكنه معالجة مشاكل متزايدة التعقيد، بمستوى بشري، في العديد من المجالات.”

يبدو أن تعريف الذكاء الاصطناعي العام قابل للتأويل. يتأمل كولي:

“لا أعرف مدى ذكائه. أعتقد أنه شيء نظري نسعى للوصول إليه. بالنسبة لي، الذكاء الاصطناعي العام يعني ببساطة أفضل ممكن. وأفضل ذكاء اصطناعي ممكن هو ما نحاول بناءه في Sentient.”

يعكس تياغي:

“الذكاء الاصطناعي العام بالنسبة لنا [Sentient] ليس سوى عدة نماذج ذكاء اصطناعي تتنافس وتبني على بعضها البعض. هذا هو الذكاء الاصطناعي العام بالنسبة لي، والذكاء الاصطناعي العام المفتوح يعني أن الجميع يمكنهم الحضور والمساهمة بذكائهم الاصطناعي لجعل هذا الذكاء الاصطناعي أفضل.”

أموال للإحراق، ونقد للتبذير: مفارقة المليار دولار

جمعت شركة Sentient Labs ومقرها دبي 85 مليون دولار في تأسيسي في عام 2024، بقيادة مشتركة من Founders Fund لبيتر ثيل (نفس ممولي OpenAI)، وPantera Capital، وFramework Ventures. يصف تياغي المشهد المزدهر لتطوير الذكاء الاصطناعي في الإمارات العربية المتحدة، قائلاً بحماس:

“إنهم [حكومة الإمارات] يضعون الكثير من الأموال في الذكاء الاصطناعي، كما تعلمون. جميع الشركات الكبرى جمعت أموالاً من الإمارات، لأنهم لا يريدون فقط توفير التمويل، بل يريدون أيضاً أن يصبحوا مركزاً للحوسبة.”

مع طموحات عالية وجيوب أعمق، تدفع دول الخليج بكل ثقلها نحو تطوير الذكاء الاصطناعي، حيث تعهدت المملكة العربية السعودية مؤخراً بمبلغ 600 مليار دولار للصناعات الأمريكية و20 مليار دولار صراحةً لمراكز بيانات الذكاء الاصطناعي، ومن المتوقع أن يصل سوق الذكاء الاصطناعي في الإمارات العربية المتحدة إلى 46.3 مليار دولار بحلول عام 2031 (20٪ من الناتج المحلي الإجمالي للبلاد).

بين عمالقة التكنولوجيا الكبرى، تدور حرب المواهب على قدم وساق، حيث يسيل لعاب المؤسسين الطموحين لبناء الذكاء الاصطناعي العام أولاً، مقدمين مكافآت توقيع بقيمة 100 مليون دولار للمطورين ذوي الخبرة في الذكاء الاصطناعي (الذين من المفترض أنهم لم يقرأوا أبداً المثل عن الجمل والإبرة). هذه الأرقام لم تعد ذات معنى.

عندما تمتلك الشركات والدول أموالاً للإحراق ونقداً للتبذير، إلى أين يتجه كل هذا؟ ماذا يحدث إذا بنت دولة واحدة أو شركة تكنولوجيا كبرى الذكاء الاصطناعي العام قبل الأخرى؟ وفقاً لكولي:

“أول شيء سيفعلونه هو الاحتفاظ به لأنفسهم… إذا كانت مايكروسوفت أو OpenAI فقط تتحكم في جميع المعلومات التي تبحث عنها عبر الإنترنت، فسيكون هذا جحيماً. لا يمكنك حتى تخيل كيف سيكون الأمر… لا يوجد لديهم حافز للمشاركة، وهذا يترك الجميع خارج الصورة… OpenAI تتحكم فيما أعرفه.”

بدلاً من تدمير الجنس البشري، تتوقع Sentient مشكلة مختلفة، وهي السبب وراء وجود الشركة: السباق ضد الذكاء الاصطناعي العام ذي المصدر المغلق. يوضح كولي:

“Sentient هي ما قالت OpenAI إنها ستكونه. لقد دخلوا الساحة، وكانوا مدفوعين بالمهمة للغاية وقالوا: ‘نحن شركة غير ربحية بالكامل. نحن هنا من أجل تطوير الذكاء الاصطناعي’. ثم بدأوا في كسب بعض الأموال، وأدركوا أنهم يمكنهم كسب الكثير، وتحولوا بالكامل إلى المصدر المغلق.”

قضية مفتوحة ومغلقة: لماذا الة مهمة

يصر تياغي على أن الأمور لا يجب أن تكون هكذا. لا يجب أن يكون الذكاء الاصطناعي العام مركزياً في أيدي كيان واحد بينما يمكن للجميع أن يكونوا أصحاب مصلحة في المعرفة.

“الذكاء الاصطناعي هو نوع من التكنولوجيا التي لا تحتاج إلى أن يكون فيها الفائز هو الذي يحصل على كل شيء، لأن لدى الجميع بعض التفكير وبعض المعلومات للمساهمة بها. لا يوجد سبب يجعل شركة مغلقة تفوز. الشركات المفتوحة هي التي ستفوز.”

تتخيل Sentient عالماً حيث يمكن لآلاف نماذج وعملاء الذكاء الاصطناعي، التي يبنيها مجتمع عالمي لامركزي، التنافس والتعاون على واحدة. يمكن لأي شخص المساهمة في ابتكاراته في مجال الذكاء الاصطناعي وتحقيق الدخل منها، مما يخلق ملكية مشتركة؛ كما ذكر كولي، هذا ما كان يجب أن تكون عليه OpenAI.

يعطيني تياغي ملخصاً موجزاً لتطوير الذكاء الاصطناعي، ويوضح أن كل شيء كان يتم تطويره بشكل مفتوح حتى جن جنون OpenAI بسبب الأرباح وأغلقوا الأبواب.

“من 2020 إلى 2023، كانت هذه السنوات الأربع هي التي سيطر فيها الذكاء الاصطناعي المغلق، وكنت تسمع باستمرار عن تقييمات بقيمة 20 مليار دولار، والتي أصبحت الآن طبيعية. الأرقام ارتفعت. إنه أمر مخيف للغاية. الآن، أصبح من الشائع سماع عن تقييمات بقيمة 100 مليار دولار.”

مع وقوف العالم جنباً إلى جنب والغناء “كومبايا” من جهة، والأباطرة الأشرار يلمعون خواتمهم من جهة أخرى، ليس من الصعب اختيار جانب. ولكن هل يمكن أن يحدث أي خطأ في تطوير هذه التكنولوجيا القوية بشكل مفتوح؟ طرحت السؤال على تياغي:

“إحدى المشكلات التي يجب معالجتها هي أنه الآن أصبح مفتوح المصدر، إنه الغرب المتوحش. يمكن أن يكون مجنوناً، كما تعلمون، قد لا يكون آمناً استخدامه، قد لا يكون متوافقاً مع اهتماماتك استخدامه.”

محاذاة الذكاء الاصطناعي (أو ترويض الغرب المتوحش)

يقدم كولي بعض الأفكار حول كيفية قيام Sentient ببرمجة نماذج الذكاء الاصطناعي لتكون أكثر أماناً ومحاذاة.

“ما نجح بشكل جيد حقاً هو تدريب المحاذاة الذي قمنا به. أخذنا نموذج Meta، Llama، ثم أزلنا الحواجز الوقائية، وقررنا إعادة تدريبه لفهم أي ولاء أردناه. جعلناه مؤيداً للعملات المشفرة ومؤيداً للحرية الشخصية… أجبرنا النموذج على التفكير تماماً كما أردناه أن يفكر… ثم تستمر في إعادة تدريبه حتى يتم تضمين هذا الولاء.”

يقول إن هذا مهم في العديد من الحالات. على سبيل المثال، لا يمكن لمتداول العملات المشفرة أن يثق ببرنامج دردشة آلي مبني على نموذج لغوي كبير تمت برمجته ليكون متحفظاً عندما يتعلق الأمر بالأصول الرقمية. يروي:

“إذا سألت ChatGPT قبل ستة أشهر، ‘هل كان يجب علي ال في ال في عام 2014؟’ سيقول: ‘أوه نعم، بالنظر إلى الوراء، كان سيكون استثماراً جيداً. ولكن في ذلك الوقت، كان الأمر محفوفاً بالمخاطر للغاية. لا أعتقد أنه كان يجب عليك القيام بذلك’. أي وكيل مبني على ذلك الآن لديه نفس عملية التفكير، أليس كذلك؟ أنت لا تريد ذلك.”

يقارن تدريب محاذاة أنظمة الذكاء الاصطناعي بتلقين الطلاب في الصين الشيوعية، حيث حتى كتبهم المدرسية للرياضيات مؤيدة بشكل خفي للحزب الشيوعي الصيني.

“فكر في أي بلد يقوم بتدريب مواطنيه على الإيمان بأجندته. الحزب الشيوعي الصيني لا يقول لشخص في عمر 21 عاماً أنه يجب أن يكون مؤيداً للصين. لقد نشأوا في تلك الثقافة، حتى من خلال كتبهم المدرسية.”

أفهم القياس، لكنه لا يبدو لي مضموناً تماماً. أشير إلى أنه حتى الصين الشيوعية التي يتم التحكم فيها بشدة لديها معارضون، وأسأل كولي عما يفكر به في النموذج اللغوي الكبير الذي رفض مؤخراً إيقاف التشغيل، متجاوزاً التعليمات المشفرة لمدربيه.

“هذه القصص تتزايد باستمرار”، يقر. “إحدى القضايا الجانبية التي أتبناها هي أن المختبرات الكبرى تفعل ذلك عن عمد لأنها تريد زيادة الانتباه لنماذجها.”

حسناً، ولكن إذا كان Sentient قادراً على إزالة الحواجز الوقائية من نموذج وتدريبه على متطلبات محددة، فما الذي يمنع دولة مارقة أو إرهابياً عادياً من فعل الشيء نفسه؟

“أولاً، لا أعتقد أن أي شخص يمكنه فعل ذلك في الوقت الحالي. استغرق الأمر من باحثينا وقتاً طويلاً. وثانياً، نظرياً، يمكنهم فعل ذلك، ولكن هناك بعض المخاوف القانونية.”

نعم، ولكن… لنفترض أن الشخص لديه مهارات جنونية، وأموال غير محدودة، ولا يمتلك أي قواعد أخلاقية، ولا يحترم التشريعات. فماذا بعد؟ يتوقف للحظة:

“لا أعرف. أعتقد أننا مسؤولون، ونأمل أن يكون الجميع مسؤولاً.”

يجب أن تأتي نماذج اللاما المنفلتة مع علامة تحذير

يتوسع تياغي في موضوع الذكاء الاصطناعي الموالي، طرح السؤال:

“كيف تتأكد من أن هذا النظام البيئي المفتوح الذي يتجمع ويقدم لك تجربة مستخدم رائعة، هو أيضاً متوافق مع اهتماماتك؟ كيف يمكن الوصول إلى ذكاء اصطناعي حيث تحصل مجموعات مختلفة من المستخدمين أو حتى الأفراد، وشركات ودول سياسية مختلفة على الذكاء الاصطناعي الذي يتوافق مع ما يريدونه؟ وضعنا دستوراً لهذا الذكاء الاصطناعي. نكتشف، ويكتشف الناس، أين يحيد الذكاء الاصطناعي عن هذا الدستور.”

الدساتير شائعة الاستخدام في الذكاء الاصطناعي. إنها طريقة للمحاذاة طورها باحثون في Anthropic لمواءمة أنظمة الذكاء الاصطناعي مع القيم البشرية والمبادئ الأخلاقية. يقومون بتضمين مجموعة محددة مسبقاً من القواعد أو الإرشادات (“الدستور”) في إطار تدريب وعمل الذكاء الاصطناعي.

بينما لا تمتلك Sentient دستوراً بمعناه الحرفي، فإن الشركة تصدر إرشادات صريحة مع نماذجها، مثل تلك الصادرة مع نموذج “Mini Unhinged Llama” المؤيد للعملات المشفرة والمؤيد للحرية الشخصية الذي أشار إليه كولي سابقاً. يقول تياغي:

“هذا هو الجزء الأعمق من البحث الذي نقوم به. ولكن في النهاية، الهدف هو تقديم تجربة ذكاء اصطناعي عام مفتوح وموحد.”

أجرت Sentient أيضاً بعض الأبحاث المثيرة للاهتمام مع EigenLayer، التي قامت باختبار قدرة الذكاء الاصطناعي على التفكير في قوانين حوكمة الشركات. من خلال الجمع بين 79 ميثاقاً متنوعاً للشركات مع أسئلة مبنية على 24 مبدأً راسخاً للحوكمة، كشف الاختبار عن تحديات كبيرة لنماذج الذكاء الاصطناعي الحديثة والحاجة إلى تفكير قانوني متقدم و متعدد الخطوات في الذكاء الاصطناعي.

بينما عمل Sentient واعد، لا تزال الصناعة تحتاج إلى قطع شوط طويل عندما يتعلق الأمر بالسلامة والمحاذاة. أفضل التقديرات تشير إلى أن الإنفاق على المحاذاة لا يتجاوز 3٪ من إجمالي التمويل الاستثماري.

عندما لا يبقى لدينا سوى الاتصال البشري

أضغط على تياغي ليخبرني ما هو الهدف النهائي لتطوير الذكاء الاصطناعي، وأشاركه مخاوفي بشأن الذكاء الاصطناعي الذي يحل محل الوظائف أو حتى يقضي على البشرية بالكامل. يتوقف لحظة:

“هذا سؤال فلسفي في الواقع. يعتمد على كيفية رؤيتك للتقدم للبشرية.”

يقارن الذكاء الاصطناعي بالإنترنت عندما يتعلق الأمر بإحلال الوظائف، لكنه يشير إلى أن الإنترنت خلق أيضاً أنواعاً مختلفة من الأدوار.

“أعتقد أن البشر حيوانات عالية الفاعلية. سيجدون أشياء أخرى يفعلونها، وستنتقل القيمة إلى ذلك. لا أعتقد أن القيمة ستنتقل إلى الذكاء الاصطناعي. لذا أنا لست قلقاً بشأن ذلك.”

يجيب كولي على نفس السؤال ويتفق معي عندما أذكر أن نوعاً من حل الدخل الأساسي العالمي (UBI) قد يكون ضرورياً في المستقبل القريب. يقول:

“أعتقد أنك سترى الفجوة تتسع كثيراً الآن بين الأشخاص الذين قرروا الاستفادة من الذكاء الاصطناعي والأشخاص الذين لم يفعلوا ذلك. لا أعرف ما إذا كان هذا شيئاً جيداً أم سيئاً… في غضون ثلاث سنوات، سينظر الكثير من الناس حولهم وسيقولون: ‘يا إلهي، وظيفتي ذهبت الآن. ماذا أفعل؟’ وسيكون الأوان قد فات لمحاولة الاستفادة من الذكاء الاصطناعي في ذلك الوقت.”

يتابع:

“الآن ترى، أنا متأكد في صناعتك، عندما يتركز بالكامل على الكتابة، أعتقد أن كل ما تبقى للصحفيين هو الاستفادة من الاتصال البشري في كتاباتهم.”

لا أحب أن يُنظر إليّ على أنني “Luddite” (مناهض للتكنولوجيا)، ولكن من الصعب علي أن أكون متفائلاً بشأن الذكاء الاصطناعي عندما أواجه يومياً احتمال عدم أهميتي، وكل ما تبقى في ترسانتي هو إنسانيتي، بعد سنوات من صقل مهنتي.

ومع ذلك، لا يمتلك أي من الأشخاص الذين يطورون الذكاء الاصطناعي إجابة جيدة حول كيفية تطور البشر. عندما سُئل إيلون ماسك عما سيخبر به أطفاله بشأن اختيار مهنة في عصر الذكاء الاصطناعي، أجاب:

“حسناً، هذا سؤال صعب الإجابة عليه. أعتقد أنني سأقول لهم فقط أن يتبعوا قلبهم فيما يجدونه مثيراً للاهتمام للقيام به أو مرضياً، وأن يحاولوا أن يكونوا مفيدين قدر الإمكان لبقية المجتمع.”

الروليت الروسي للبشرية: ماذا يحدث بعد ذلك؟

إذا كان هناك شيء واحد مؤكد بشأن ما سيأتي، فهو أن السنوات القادمة ستجلب تغييراً هائلاً، ولا أحد يعرف كيف سيبدو هذا التغيير.

يُقدر أن أكثر من 99٪ من جميع الأنواع التي عاشت على الأرض قد انقرضت. ماذا عن البشرية؟ هل نحن في مشكلة هنا كمهندسين لفنائنا؟

ما يسمى بـ “عراب الذكاء الاصطناعي”، جيفري هينتون، الذي استقال من وظيفته في جوجل لتحذير الناس من المخاطر، يقارن الذكاء الاصطناعي العام بامتلاك شبل نمر كحيوان أليف. يقول:

“إنه لطيف حقاً. إنه لطيف للغاية، ومثير للاهتمام للمشاهدة. باستثناء أنه يجب عليك التأكد من أنه عندما يكبر، لا يريد أبداً أن يقتلك، لأنه إذا أراد قتلك في أي وقت، فستكون ً في غضون ثوانٍ قليلة.”

يشارك ألتمان أيضاً احتمالية مقلقة حول السيناريو الأسوأ للذكاء الاصطناعي العام:

“الحالة الجيدة جيدة بشكل لا يصدق لدرجة أنك تبدو كشخص مجنون حقاً عند البدء في الحديث عنها. والحالة السيئة، وأعتقد أن هذا مهم حقاً لقوله، هي بمثابة انطفاء الأنوار لنا جميعاً.”

ماذا يعتقد تياغي؟ يعبس:

“يجب الحفاظ على الذكاء الاصطناعي موالياً للمجتمع وموالياً للبشرية، لكن هذه مشكلة هندسية.”

مشكلة هندسية؟ أقاطع. نحن لا نتحدث عن خطأ برمجي هنا، بل عن مستقبل الجنس البشري. يصر:

“يجب أن نصمم أنظمة الذكاء الاصطناعي القوية بعناية فائقة للأمان. الأمان على مستوى البرمجيات، على مستوى المطالبات، ثم على مستوى النموذج، على طول الطريق، يجب أن يواكب ذلك. أنا لست قلقاً بشأن ذلك… إنها مشكلة مهمة للغاية، ومعظم الشركات ومعظم المشاريع تبحث في كيفية الحفاظ على أمان الذكاء الاصطناعي الخاص بك، لكنه سيكون مثل مسلسل Black Mirror، سيؤثر بطريقة…”

يتوقف ويغير المسار، يسألني عما أعتقده في وسائل التواصل الاجتماعي والأطفال الذين يقضون كل وقتهم عبر الإنترنت. يسألني ما إذا كنت أعتبره تقدماً أم مشكلة، ثم يقول:

“بالنسبة لي، إنه جديد، كل شيء جديد من هذا النوع هو تقدم، ويجب علينا عبور هذا الحاجز والوصول إلى المرحلة التالية… أنا أؤمن بالفترة الذهبية للمستقبل أكثر بلا حدود من الفترة الذهبية للماضي. تقنيات مثل الذكاء الاصطناعي، والفضاء، تفتح إمكانيات لا محدودة للمستقبل.”

أقدر تفاؤله وأتمنى بشدة أنني أشاطره. لكن بين أن يتم التحكم فينا من قبل مايكروسوفت، أو أن نصبح عبيداً لكوريا الشمالية، أو أن يتم القضاء علينا بواسطة ذكاء اصطناعي مارق تم تفكيك حواجزه الوقائية، أنا لست متأكداً تماماً. على الأقل، مع وجود الكثير على المحك، إنها محادثة يجب أن نجريها علناً، وليس خلف أبواب مغلقة أو مصدر مغلق. كما علق هينتون:

“سيكون الأمر مجنوناً نوعاً ما إذا انقرض البشر لأننا لم نتمكن من تحمل عناء المحاولة.”

“`

مواضيع مشابهة