خلال مؤتمر Google I/O السنوي للمطورين، أعلنت جوجل أن “وضع الذكاء الاصطناعي” (AI Mode) في محرك البحث لم يعد مجرد تجربة مخبرية، بل بدأ بالوصول رسميًا إلى جميع مستخدمي بحث Google في الولايات المتحدة.
هذا الوضع، الذي بدأ اختباره لأول مرة في مارس الماضي ضمن Google Labs، أصبح الآن جزءًا أساسيًا من تجربة البحث، ويظهر كتَبويب مستقل في الجانب الأيسر من واجهة البحث، حتى قبل تبويب “الكل”. كما سيتوفر أيضًا ضمن شريط البحث في تطبيق Google على الهواتف المحمولة.
تجربة بحث متقدمة بمعايير جديدة
تصف جوجل هذا الوضع بأنه “أقوى تجربة بحث مدعومة بالذكاء الاصطناعي”، ويتميز بقدرات reasoning متقدمة، ودعم لتعدد الوسائط (multimodality)، إضافةً إلى إمكانيات التفاعل مع نتائج البحث عبر أسئلة متابعة وروابط مساعدة لمصادر خارجية.
ومن أبرز الميزات:
- نتائج فورية فائقة الصلة بالسياق (Hyper-relevant)
- القدرة على ربط المعلومات المبعثرة وإنشاء تقارير موثوقة ومفصلة في دقائق
- تكامل مع نسخة مخصصة من Gemini 2.5 في وضع البحث الجديد وكذلك في ميزة “اللمحات المدعومة بالذكاء الاصطناعي” (AI Overviews)
- وضع Live الجديد: يمكنك استخدام الكاميرا لطرح أسئلة حول ما تراه مباشرة، على غرار Gemini Live
- حجز التذاكر والمواعيد تلقائيًا: بما في ذلك مواقع مثل Ticketmaster وStubHub وResy وVagaro
- تجربة تسوق ذكية: تتيح لك تجربة الملابس افتراضيًا وشراؤها مباشرة من خلال البحث
- تحليل مجموعات بيانات معقدة وإنشاء رسومات توضيحية حسب الطلب
تكامل أعمق مع خدمات جوجل
سيتم ربط وضع الذكاء الاصطناعي بتطبيقات مثل Gmail لتقديم نتائج واقتراحات مخصصة استنادًا إلى نشاطك واهتماماتك السابقة. كما سيوفر الوضع تحليلات معمقة ومخصصة للبيانات المعقدة، مع تحويلها إلى رسوم بيانية تفاعلية.
متى يتوفر؟
بدأ طرح وضع الذكاء الاصطناعي اليوم بشكل تدريجي لجميع المستخدمين في الولايات المتحدة، لكن بعض الميزات المتقدمة ستصل تدريجيًا خلال الأسابيع والأشهر المقبلة عبر Google Labs.