رئيس علماء ميتا: المخاوف من الذكاء الاصطناعي مجرد “هراء”
قال يان ليكون، عالم الكمبيوتر الشهير، وهو أستاذ في جامعة نيويورك، ورئيس علماء الذكاء الاصطناعي في ميتا، إننا نبالغ في تقدير إيجابيات وسلبيات الذكاء الاصطناعي، وفي مقابلة مع صحيفة وول ستريت جورنال، قال ليكون إننا غالبًا ما نبالغ في تقدير مدى ذكاء الذكاء الاصطناعي.
ويضيف مازحًا أن الذكاء الاصطناعي لا يتمتع بذكاء حيواناتنا الأليفة، ناهيك عن البشر، من ناحية أخرى، يعتقد أيضًا أن السلبيات المرتبطة بالذكاء الاصطناعي – معظمها المخاطر التي قد تأتي مع تطويره – مبالغ فيها أيضًا، وفي الواقع، يواصل قائلاً، “إنه هراء كامل”.
كان يان ليكون شخصية محورية في صعود الذكاء الاصطناعي، وخاصة في تطوير التعلم العميق، وشارك في إنشاء الشبكة العصبية التلافيفية (CNN)، وهو اختراق يدعم الكثير من أنظمة التعرف على الصور والكلام اليوم، حيثأثر عمله على التطورات في مجال الرؤية الحاسوبية ومعالجة اللغة الطبيعية والأنظمة المستقلة.
وبصفته عضوًا مؤسسًا في مختبر أبحاث الذكاء الاصطناعي في Meta (FAIR)، قاد LeCun الابتكارات التي ساعدت في جعل الذكاء الاصطناعي أكثر سهولة في الوصول وقابلية للتطوير، وقد ساهمت مساهماته في تشكيل تطبيقات الذكاء الاصطناعي الحديثة، مما عزز مكانته كمهندس رئيسي لثورة الذكاء الاصطناعي.
يعتقد يان ليكون أن المخاوف بشأن الذكاء الاصطناعي غالبًا ما تكون مبالغ فيها، خاصة بالمقارنة بالتحذيرات الأكثر دراماتيكية التي أطلقها العديد من الخبراء في الصناعة، ويرى ليكون أن الذكاء الاصطناعي أداة قيمة للغاية وأساسية لعمليات Meta.
إنه يدعم كل شيء من الترجمة في الوقت الفعلي إلى تعديل المحتوى، مما يساعد في تغذية نمو Meta والمساهمة في تقييم الشركة بقيمة 1.5 تريليون دولار، ويعمل فريقه، بما في ذلك FAIR وقسم يركز على المنتج يسمى GenAI، باستمرار على تطوير نماذج اللغة الكبيرة وتقنيات الذكاء الاصطناعي الأخرى، ودمجها بعمق في منتجات Meta.
ومع ذلك، وعلى الرغم من إدراك أهمية الذكاء الاصطناعي، يظل لوكان متشككًا في بعض التوقعات الأكثر قتامة من الآخرين في هذا المجال، وعلى سبيل المثال، فهو مقتنع بأن أنظمة الذكاء الاصطناعي اليوم، على الرغم من قوتها، ليست ذكية حقًا.
وغالبًا ما ينتقد ما يراه ادعاءات مبالغ فيها من شركات الذكاء الاصطناعي الناشئة والقادة مثل سام ألتمان من OpenAI، الذي اقترح مؤخرًا أن الذكاء الاصطناعي العام (AGI) قد يصل في غضون “بضعة آلاف من الأيام”، ويرد لوكان بأن مثل هذه التوقعات سابقة لأوانها، بحجة أن العالم لم يصمم بعد نظامًا يقترب حتى من التعقيد المعرفي لقطة منزلية، ناهيك عن شيء أكثر تقدمًا من الذكاء البشري.
وكتب لوكان في منشور على X : “يبدو لي أنه قبل “التوصل بشكل عاجل إلى كيفية التحكم في أنظمة الذكاء الاصطناعي الأكثر ذكاءً منا” نحتاج إلى أن يكون لدينا بداية لمحة عن تصميم نظام أذكى من قطة منزلية”.
ويتناقض منظور لوكان بشكل حاد مع منظور جيفري هينتون، الذي أصبح منتقدًا صريحًا للتطور السريع للذكاء الاصطناعي، وكان هينتون، الذي قضى أكثر من عقد من الزمان في جوجل، فعالاً في تطوير الشبكات العصبية التي تعمل كعمود فقري لنماذج الذكاء الاصطناعي الشائعة مثل ChatGPT وBard.
ومع ذلك، فقد أصبح قلقًا بشكل متزايد بشأن المخاطر المحتملة المرتبطة بالذكاء الاصطناعي، وفي عام 2023، تصدر هينتون عناوين الأخبار عندما غادر جوجل، محذرًا من المخاطر التي يفرضها صعود أنظمة الذكاء الاصطناعي القوية، وأثار مخاوف بشأن انتشار المعلومات المضللة، وإمكانية قيام الذكاء الاصطناعي بتعطيل أسواق العمل، والمخاطر الوجودية المرتبطة بالآلات التي يمكن أن تتفوق على الذكاء البشري.
وبلهجة مشؤومة بشكل خاص، سلط هينتون الضوء على إمكانية اكتساب أنظمة الذكاء الاصطناعي القدرة على التلاعب بالسلوك البشري، واقترح أن الذكاء الاصطناعي المتقدم قد يستفيد من معرفته الواسعة بالأدب والتاريخ والاستراتيجيات السياسية ليصبح مقنعًا للغاية، مما يشكل تهديدًا لاستقرار المجتمع، وأضافت تحذيرات هينتون وقودًا للمناقشة الجارية حول المخاطر المحتملة للذكاء الاصطناعي، مؤكدة على الحاجة إلى الحذر مع تطور التكنولوجيا.