آخر الأخبار

اكتشف آخر الأخبار والتحديثات حول خدماتنا ومنتجاتنا. نبقيك على اطلاع دائم بكل ما هو جديد.

ملتقى المرأة في علم البيانات

تفعيلًا لدور المرأة ودعمًا لمسيرتها التقنية، نواصل في بيان إسهاماتنا في #ملتقى_المرأة_في_علم_البيانات نحو خلق تجربة علمية إثرائية في مختلف مناطق المملكة لنصل إلى عنان الإبداع، كونوا معنا.

ورشة عمل بعنوان (لمحة عن أثر الذكاء الاصطناعي ومستقبله)

إن للذكاء الاصطناعي تأثيرًا في صناعة التغيير وخلق فرص جديدة من الابتكار من خلال تفعيل تطبيقات فريدة تعزز النمو في مختلف القطاعات، بالتعاون مع المركز الوطني لنظم الموارد الحكومية اختتمنا ورشة عمل بعنوان (لمحة عن أثر الذكاء الاصطناعي ومستقبله)، قدمته الاستاذة روان النفيسه #بيان_لعلم_البيانات.

تواصل بيان في تحقيق الإنجازات من خلال مبادراتها النوعية

حيث سجلت قائد مبادرة مجتمعات بيان التقنية (بايتكس) جائزة مركز الشباب العربي أ.ميعاد الصايل ومنحها عضوية روّاد الشباب العربي عن مسار الهندسة والتكنولوجيا.

تسجل شركة منصة بيان إنجازٍ نوعي جديد

تم تتويج شركة منصة بيان بجائزة أفضل مبادرة في مجال علم البيانات والذكاء الاصطناعي في جانب دعم المحتوى العربي ورفع مستوى الوعي في المملكة العربية السعودية.ترتبط هذه الجائزة مع رؤية المملكة في خلق بيئات داعمة ومستثمرة في الذكاء الاصطناعي بهدف تحقيق التطور والمستقبل الواعد.​

استخدام البيانات الضخمة في المدن الذكية (تجربة مدينة ميلتون كينز)

تعتبر ميلتون كينز بلدة ً كبيرة ً (على الرغم من أنها غالباً ما يشار إليها بأنها مدينة) في وسط إنجلترا يبلغ عدد سكانها حوالي 230,000 نسمة. تعتبر ميلتون كينز “بلدة جديدة” تم تطويرها في الستينيات وصممت لاستيعاب تدفق السكان المتزايد من مدينة لندن. منذ البداية تم تطويرها بالنظر إلى الاتصالات السلكية – حيث تم اتباع نمط الشبكة القائم على تقنيات تخطيط المدن الحديثة الأمريكية، وبدون نموذج “مركز المدينة” التقليدي الذي نشأت عليه البلدات والمدن الإنجليزية التقليدية. كانت الفكرة الأساسية أن الاتصالات السلكية ستقضي على الحاجة لتنقل المواطنين بأعداد كبيرة من وإلى مراكز المدن للعمل، حيث يتم تجميع الأعمال التجارية قبل العودة إلى الضواحي في المساء. كانت الهواتف تعني أن الشركات يمكنها القيام بأعمالها دون الحاجة إلى الاجتماع وجها ً لوجه في السوق المحلية. وقد أدى ذلك إلى ظهور مواقع التخزين خارج المدينة ومواقع الخدمات اللوجستية على الأراضي الأرخص سعرا ً وغير المطورة والتي تحظى بوصول جيد إلى البنية التحتية للنقل مثل الطرق السريعة وغيرها.

في أوائل الألفية الثالثة، كانت هذه الفكرة لا تزال تتطور، وقد أدى التوسع السريع للاتصالات والإنترنت إلى ظهور مفهوم “المدينة الذكية”. ينطوي ذلك على تطبيق التقنية، بما في ذلك مبادئ تقنية المعلومات والبيانات الضخمة، على كل جانب من جوانب الحياة الحضرية، بدءا ً من إدارة النفايات إلى وسائل النقل العام، بهدف تحسين جودة الحياة للسكان الذين يعيشون في تلك المدينة.

بفضل ارتباطاتها الكبيرة بالمدن الكبرى الأخرى مثل لندن وبرمنغهام، كبرت مدينة ميلتون كينز في تلك الفترة لتصبح مركزا ً تقنيا ً، حيث تتمتع بسكان من جيل الشباب ولديهم ميول تقنية. وهذا يعني أنها كانت خيارا ً طبيعيا ً لمشروع مدينة ذكية في المملكة المتحدة.

لهذا الغرض، تقدم مجلس المدينة بطلب للحصول على منحة مالية قدرها 16 مليون جنيه استرليني من الحكومة وشركة BT، بهدف تحفيز تطوير مشاريع البنية التحتية للمدينة الذكية في ميلتون كينز.

ما هي المشاكل التي ساعدت البيانات الضخمة في حلها

وفقًا لتوقعات النمو للمدن الأخرى في المملكة المتحدة وحول العالم، من المتوقع أن يستمر تزايد سكان مدينة ميلتون كينز بسرعة في السنوات القادمة. تشير التقديرات إلى أن حوالي 50,000 شخص آخر سيجعلونها مسكنا ً لهم بعد عشر سنوات من الآن، مما سيزيد من عدد السكان إلى حوالي 350,000 نسمة.

ستواجه البنية التحتية الحالية صعوبات كبيرة في التعامل مع هذا التزايد السكاني. تعرض الطرق لخطر الازدحام، وتكون مرافق النقل العام الحالية غير كافية، وجودة الهواء ستتدهور، ومرافق التخلص من النفايات ستفيض، والمدارس ستكون مكتظة بالطلاب. وسيؤدي كل ذلك حتما ً إلى تراجع كبير في جودة حياة سكان المدينة.

بالإضافة إلى ذلك، ارتأت جميع المدن في المملكة المتحدة وكثير من بلدان العالم المتقدمة الحد من كمية انبعاثات الكربون المُطلَقة في الهواء، من أجل التخفيف من آثار التغير المناخي.

كيف استخدمت البيانات الضخمة عمليا ً

تزامنا ً مع ذلك، قبل ثلاث سنوات تقريباً، أدرك مجلس ميلتون كينز قيمة النهج المبني على البيانات في تخطيط البنية التحتية للمدينة وتقديم الخدمات ولكنه لم يكن يملك المهارات اللازمة داخلياً لتنفيذ هذه التقنيات. فلجأوا إلى المجتمع التجاري للحصول على المساعدة وبعد إنشاء سلسلة من اللقاءات وورش العمل لمناقشة الخيارات الممكنة للمستقبل، بدأوا بالعمل مع العديد من الشركاء لتطوير رؤية “ميلتون كينز المدينة الذكية”.

واحدة من المبادرات الرئيسية، التي تم تطويرها بمساعدة جامعة أوبن وشركة بي تي، هي “MK: سمارت”، حيث ستعمل كمحور بيانات لجميع المشاريع الأخرى في المدينة حيث يمكن تقييم فعاليتها وتأثيرها.

تم اقتراح حلول تتبنى تقنيات “إنترنت الأشياء” للنقل وكفاءة الطاقة وتخطيط إمدادات المياه ونمو المشروعات وتوفير التعليم. سيتم تركيب أجهزة استشعار في مرافق التخلص من النفايات، مما يعني أن عملية تفريغها بواسطة الشاحنات يمكن أن تصبح أكثر كفاءة. سيتم أيضا ً مراقبة حركة المرور والمشاة في الأماكن العامة من أجل التخطيط لمسارات وسائل النقل العام، وكذلك بنية ممرات المشاة ومسارات الدراجات.

العديد من المشاريع قيد التنفيذ، حيث يشارك عدد من المنازل في تجارب للأجهزة المنزلية لتوفير الطاقة والعدادات الذكية بالتعاون مع مزود الطاقة E.ON. تم تزويد عائلات أخرى بسيارات كهربائية مجانا ً لإجراء دراسة جدوى لمدة عام على تلك التقنيات. وفي المستقبل القريب، ستشهد المدينة أول تجارب للسيارات ذاتية القيادة في شبكتها المشابهة للشبكة المكونة من الدوارات.

أحدث مبادرة هي  CAPE، حيث يتم استخدام الصور الفضائية والبيانات عن تسرب الحرارة من المنازل؛ بهدف مساعدة المواطنين في إدارة برامج الطاقة المجتمعية الخاصة بهم وتقليل بصمتهم الكربونية في النهاية. ستكمل الصور الفضائية البيانات الأخرى المتعلقة بالمباني والطاقة لتحديد الأحياء التي يمكن أن تستفيد من تحسين الطاقة. إنها أولى تجاربها في المملكة المتحدة وأحدث إضافة إلى برنامج “MK: سمارت”.

ما هي أبرز النتائج حتى الآن

على الرغم من أن المشروع في مراحله المبكرة، إلا أن مجلس ميلتون كينز يعمل بالفعل مع أكثر من 40 شريكا ً في مشاريع في جميع أنحاء المدينة. يقول جيف سنيلسون، مدير الاستراتيجية في المجلس، إن النظرية والتكنولوجيا قد ثبتت فعاليتها وأن التركيز الآن هو على تطوير أعمال مستدامة لتطوير وتقديم الخدمات.

يقول: “على المستوى الدولي، هناك نقص حقيقي في الأدلة القوية حول الفوائد التي تجلبها هذه التقنيات، ونحن نحاول تصحيح ذلك. لدينا الكثير من التمويل للبحث والتطوير، ولكننا الآن نتحرك إلى المرحلة التي ندفع فيها نحو تطوير نماذج تجارية حقيقية.

“الكثير من هذه الحلول يتعلق بتحقيق الكفاءة من خلال جمع معلومات أفضل – أكثر دقة وفي الوقت المناسب. إنها ليست سحراً – إنما بيانات بشكل أفضل. الأمر لم يعد يتعلق حقاً بإثبات أن التقنية تعمل. إنه يتعلق بإثبات أنها تعمل بطريقة مستدامة في بيئة حضرية حقيقية.”

ما هي البيانات المستخدمة

يتم استخدام صور فضائية تم وضعها فوق بيانات الإرشادات التخطيطية لمراقبة نمو “الانتشار الحضري” وضمان أن تطوير البناء يتم وفقاً للإستراتيجية واللوائح.

يتم جمع البيانات من أكثر من 80 موقعا ً للتخلص من النفايات تابعة للمجلس، للتأكد من أنها تُفرغ بالطريقة الأمثل – مما يقلل من الرحلات الضائعة والانبعاثات التي تزيد من ثاني أكسيد الكربون.

تراقب أجهزة الاستشعار تدفق حركة المرور على الطرق في المدينة، والتي تُستخدم لتنبيه السائقين إلى حالات الازدحام والتخطيط لتطوير البنية التحتية في المستقبل.

تقوم تقنيات الإضاءة الذكية للشوارع بجمع البيانات حول متى وأين يتحرك الناس في فترة الليل، لضمان الإنارة عندما تكون ضرورية للسلامة وتوفير الطاقة في الأوقات الأقل طلبا ً.

تجمع البيانات حول استخدام المياه والطاقة لفهم الطلب بشكل أفضل وللمساعدة في التخطيط للإمداد.

أيضا ً، يتم تحليل استخدام وسائل التواصل الاجتماعي في المدينة لمعرفة الاستجابة تجاه المشاريع المستخدمة والتي تم تطويرها. بالإضافة إلى ذلك، يتم مراقبة استخدام وسائل التواصل الاجتماعي في مناطق أخرى، لمقارنة مدى تواصل السلطات المدنية مع المواطنين مقارنة بمدى تواصلها في مدن أخرى حول المملكة المتحدة.

ما هي أبرز التفاصيل التقنية

توفر منصة تحليلية مصممة بواسطة شركة تيك ماهيندرا الهندية، والتي تمتلك مكتبا ً في المدينة، جزءا ً كبيرا ً من بنية معالجة البيانات لبرنامج MK”سمارت”

تعتمد منصة تحليلات تيك ماهيندرا على تقنية هادوب. كما يتم استخدام العديد من التقنيات الأخرى مفتوحة المصدر ، بما في ذلك  Sqoop و Flume وSpark و Oozie و Mahout و Hive بشكل واسع. عادةً ما تشمل حالات الاستخدام الحالية حوالي 600 غيغابايت إلى 1 تيرابايت من البيانات، مع عدد من الاستعلامات اليومية تصل إلى مئات الآلاف. ومع ذلك، تم تصميم النظام للتعامل مع حالات استخدام أكبر بكثير قد تظهر في المستقبل القريب.

ما هي أبرز التحديات

نظرا ً لنقص المعرفة المتخصصة بالتقنية وتحليل البيانات داخل المجلس، تم تطوير شراكات مع منظمات أخرى.

أحد الشركاء الذين يلعبون دورا ً رئيسيا ً في تطوير “ميلتون كينز المدينة الذكية” هو تك ماهيندرا المذكورة أعلاه، التي لها وجود في ميلتون كينز منذ بداية القرن الحالي.

يقول نائب رئيس تحول عمليات الشركة على المستوى العالمي، أوبندرا دارمادكاري: “كنا نقوم بإدارة الاستجابة للطوارئ في الهند، حيث يوجد عشرة أضعاف السكان، وفكرنا ‘لماذا لا نطبق بعض التقنيات هنا؟’

“لدينا مناقشات متكررة مع المجلس وعلاقة عمل جيدة. أعتقد أن المجلس هو واحد من القلائل في المملكة المتحدة الذي يتمتع بالكفاءة بما يكفي للتفكير في هذه الأفكار الإبتكارية وتنفيذها.”

كان هنا قلقا ً آخر محتملا ً وهو ردة فعل الجمهور تجاه توغل التكنولوجيا في حياتهم اليومية، لا سيما العناصر مثل السيارات ذاتية القيادة، التي على الرغم من أنها أكثر أمانا ً بكثير من السيارات التي يتحكم بها الإنسان، إلا أنها لم تختبر بشكل كبير.

يقول جيف سنيلسون: “إنها بحاجة إلى أن تُقدم بحذر تام. بالطبع، هناك اعتبارات لنواحي السلامة والأمان – لكن في ميلتون كينز الناس بشكل عام متحمسين لذلك – بل أنهم يفخرون به.

“هناك شهية كبيرة للأشياء التي تجعل ميلتون كينز مكانا ً مثيرا ً ومثيرا ً للاهتمام.”

ما هي الدروس المستفادة

تزايد سكان المدن حول العالم بشكل متسارع – سيجعل من التقنيات الذكية والمتصلة بالإنترنت من الأشياء الضرورية الآن وفي المستقبل للسماح بتطوير البنية التحتية.

تمتلك تقنيات إنترنت الأشياء والمدينة الذكية القدرة على تحسين الكفاءة بشكل كبير في تقديم الخدمات العامة وجعل المدن أكثر ملاءمة للعيش والمساهمة برفع جودة الحياة بها.

على الرغم من أن الاستثمار في هذه المجالات يجب أن يكون له قاعدة أعمال مثبتة، نظرا ً لأن ميزانيات التمويل محدودة، وخاصة في أوقات الركود الاقتصادي، قد يوفر “التفكير الذكي” حول تطوير البنية التحتية، مع تكبد تكاليف قصيرة الأجل، توفيرا ً كبيرا ً على المدى الطويل.

البيانات الضخمة في شركة جوجل

ترجمة: أثير الحارثي


لطالما كانت شركة جوجل مسؤولة بشكل كبير عن تعريفنا بفوائد تحليل وتفسير البيانات الضخمة في حياتنا اليومية أكثر من أي شركة أخرى. فعندما نقوم بالبحث في جوجل، فإننا نتعامل مع البيانات الضخمة. يُقدر حجم فهرس جوجل – أرشيف جوجل الخاص بكل صفحة ويب يمكنه العثور عليها والذي يُستخدم لإرجاع نتائج البحث – بحوالي 100 بيتابايت (أو 100 مليون جيجابايت!) من البيانات الضخمة، بمعايير أي شخص. ولكن كما شهدنا خلال العقد الماضي، فإن جمع جميع المعلومات على الإنترنت معا ً لجعل عملية العثور على الأشياء أسهل ليس سوى بداية خطتهم. ذهبت جوجل إلى إطلاق متصفحات ويب وخدمات البريد الإلكتروني وأنظمة تشغيل الهواتف المحمولة وأكبر شبكة إعلانية على الإنترنت في العالم كلها مبنية على تقنيات البيانات الضخمة التي جعلتهم يعرفون الكثير من التفاصيل عن المستخدمين.

ما هي المشكلة التي ساعدت البيانات الضخمة في حلها؟

الإنترنت هو مساحة ضخمة جدا ً. فمنذ انتقالنا جماعيا ً إلى استخدام الإنترنت في التسعينيات، أصبح الإنترنت ينمو بمعدل هائل بدون تباطؤ. و يعتبر هذا النمو الهائل تحديا ً بحد ذاته.

لا تتميز شبكة الإنترنت بضخامة حجمها فحسب، بل بانتشارها بشكل واسع جدا ً. يتم تحميل المعلومات على خوادم قد تكون موجودة في أي مكان في العالم، مما يعني أن أي شخص يرغب في تصفح البيانات المتاحة لديه يتصل بأجهزة الكمبيوتر التي قد تكون مرتبطة أحيانا ً بآلاف الأميال بعيدة عن بعضها البعض. لا يستغرق نقل البيانات الفردية إلى المستخدم وقتا ً طويلاً، بفضل سرعة انتقال المعلومات عبر كابلات النحاس أو الألياف البصرية – وهي مسألة ثوانٍ. ولكن هذا يفترض أن يعرف المستخدم أين توجد البيانات في المقام الأول. البحث في الإنترنت بأكمله حتى عن معلومة بسيطة جدا ً، إذا كنت لا تعرف عنوان الآي بي IP الدقيق للكمبيوتر الذي يتم تخزينه فيه، سيستغرق وقتا ً طويلاً جدا ً إذا لم يكن لديك فهرس يحتوي على المعلومات اللازمة.

مع وجود مليارات الصفحات من المعلومات المتاحة على الإنترنت، فإن بناء فهرس ليس أمرا ً سهلا ً. سيستغرق من البشر سنوات طويلة للوصول إلى قاعدة بيانات شاملة لمحتويات الإنترنت. لذلك يجب أن يتم هذا الأمر بشكل آلي – عن طريق الحواسيب نفسها. ولكن هذا الاتجاه أثار مشكلة أخرى: كيف تعرف الحواسيب ما هي المعلومات ذات الجودة العالية وماهي المعلومات ذات الجودة المنخفضة؟ بشكل آلي، لا تستطيع الحواسيب تصنيف ذلك بمفردها: فليس لديها مفهوم الفرق بين المفيد والغير مفيد، ما لم يتم تدريبها على ذلك، وعلى أي حال، ما هو غير مفيد لشخص ما قد يكون ضروريا ً لشخص آخر لحل مشكلة يبحث عن حلها.

كيف تم استخدام البيانات الضخمة عمليا ً؟

لم تخترع جوجل مفهوم محرك البحث أو فهرس الويب، ولكن بعد وقت قصير من إطلاقها في عام 1997، أثبتت نفسها كأفضل محرك بحث، وهو لقب استمرت في حمله لما يقارب من 20 عاما ً.

المفهوم الذي عُرفت به جوجل في كل بقاع العالم، بينما بالكاد يُتذكر منافسوها الأوائل مثل Alta Vista أو Ask Jeeves، ما يُعرف بتسمية جوجل بيج رانك PageRank. (جوجل تحب إعطاء أسماء جديدة للأشياء عن طريق دمج كلمتين معا ً، ولكن مع الاحتفاظ بحرفي البداية كأنهما كلمتين منفصلتين!).

تم تطوير PageRank من قبل مؤسسي جوجل، لاري بيج وسيرجي برين، قبل تأسيس الشركة، أثناء البحث في جامعة ستانفورد. المبدأ هو أنه كلما زاد عدد الصفحات المرتبطة بصفحة معينة، زادت “سلطتها” – حيث يُفترض أن تكون المواقع المرتبطة تشير إليها بطريقة ما. قامت جوجل بإنشاء خوارزميات البحث الأولى لتعيين تصنيف لكل صفحة في فهرسها استنادا ً إلى عدد المواقع الأخرى التي تستخدم كلمات مفتاحية مماثلة (وبالتالي من المرجح أن تكون على نفس الموضوع). بعبارة أخرى، هذه هي عملية تنطوي على تحويل البيانات غير المنظمة (محتويات صفحات الويب) إلى بيانات منظمة لقياس تلك المعلومات وترتيبها حسب الفائدة.

تقوم جوجل ببناء فهرسها للويب عن طريق إرسال روبوتات برمجية – يُطلق عليها في كثير من الأحيان اسم الزواحف أو العناكب – والتي تجمع جميع النصوص والمعلومات الأخرى، مثل الصور أو الأصوات، الموجودة على موقع الويب وتنسخها إلى أرشيفات جوجل الضخمة – حيث يقال إن مراكز البيانات الخاصة بجوجل تستهلك 0.01٪ من إجمالي الكهرباء المستخدمة على كوكب الأرض!

مع تخزين تلك البيانات في مكان واحد، يمكن البحث فيها بسرعة أكبر – بدلاً من البحث في جميع أنحاء العالم للعثور على وثائق تحتوي على المعلومات التي يبحث عنها المستخدمون، فإنها متوفرة تحت سقف واحد كبير جدًا. بالاقتران مع     PageRank  وتطورات لاحقة مثل Knowledge Graph سنوضح ذلك أدناه، يقوم جوجل ببذل قصارى جهده لمطابقة استفسارنا مع المعلومات التي ستكون مفيدة لنا.

في وقت كتابة هذا النص، تعتبر جوجل مسؤولة عن 89% من استخدام البحث على الإنترنت. بين المنافسين الأقرب لها، تأتي ياهو وبينغ وبايدو تباعًا لتحتل تقريبا ً الـ 11% المتبقية.

تستخدم جوجل البيانات من فهرس الويب الخاص بها لمطابقة الاستفسارات مع النتائج المفيدة بدءا ً من الأولويات. يتم تعزيز هذا بالبيانات من مصادر موثوقة ومواقع أخرى تم تصنيفها بناءً على دقة البيانات باستخدام خوارزميات التعلم الآلي التي تم تصميمها لتقييم موثوقية البيانات.

وفي النهاية، تقوم جوجل أيضا ً بدمج المعلومات التي يعرفها عن المستخدم – مثل سجل البحث السابق وأي معلومات قد أدخلها في ملفه الشخصي فيGoogle Plus لتوفير لمسة شخصية في نتائج البحث.

التفاصيل التقنية

يُقال إن لدى جوجل حوالي 100 مليون جيجابايت من المعلومات في فهرس الويب الخاص بها، والتي تغطي حوالي 35 تريليون صفحة ويب حسب التقديرات. ومع ذلك، يُعتقد أن هذا يمثل فقط 4% من المعلومات المتاحة على الإنترنت، حيث يتم استضافة الكثير منها على شبكات خاصة لا يمكن للروبوتات الخاصة بجوجل الوصول لها.

تقوم خوادم جوجل بمعالجة 20 بيتابايت من المعلومات يوميا ً للرد على طلبات البحث وتقديم الإعلانات بناءً على الملفات الشخصية التي تقوم ببنائها عن المستخدمين حيث تعتمد بعض أنظمة جوجل مثل البحث والخرائط واليوتيوب التي توفر كميات ضخمة من بيانات جوجل في متناول أيدينا على إطار قاعدة البيانات الخاصة بهم وأداة التحليل المعروفة بأسماء BigTable   . BigQuery في الآونة الأخيرة، قامت الشركة أيضاً بتوفير هذه التقنيات كخدمات حوسبة سحابية للشركات الأخرى، وفقا ً لمنافسيها مثل أمازون وآي بي إم.

جوجل ومحركات البحث الأخرى كانت تواجه تحديات فيما يتعلق بالتغلب على حاجز اللغة بين البشر والآلات، مما قيد قدرة هذه المحركات على تقديم المساعدة للبشر.

لقد طورنا لغات البرمجة استنادا ً إلى مفهوم الشفرات، يمكننا إدخالها بتقريب من اللغة البشرية الممزوجة بالرياضيات، ويمكن للكمبيوتر ترجمتها (من خلال برنامج يسمى مترجم) إلى الأصفار والواحدات الأساسية للغة الثنائية واللغة المنطقية – الشيء الوحيد الذي يستطيع الكمبيوتر فهمه حقاً.

هذا جيد إذا كنت مبرمج كمبيوتر، ولكن هدف جوجل من البداية كان وضع معلومات العالم بين يدي الجميع، وليس فقط الفئة المتقنة تقنيًا. ولهذا الغرض، انتقلوا إلى تطوير تقنية “البحث الدلالي” – والتي تتضمن تعليم الكمبيوترات فهم الكلمات التي يتم تغذيتها إليها ليس ككائنات فردية فحسب، بل لفحص وتفسير العلاقة بينها.

تقوم جوجل بذلك عن طريق إدراج مجموعة واسعة من المعلومات الأخرى عند محاولتها فهم ما تريده. ابتداءً من عام 2007، قدمت الشركة البحث الشامل. وهذا يعني أنه عند إدخال استعلام، لا تقوم خوارزميات البحث فقط بالبحث في فهرس الويب عن الكلمات الرئيسية المتعلقة بمدخل البحث الخاص بك. بل تقوم أيضا ً بالبحث في قواعد بيانات ضخمة تحتوي على البيانات العلمية والبيانات التاريخية وبيانات الطقس والبيانات المالية وما إلى ذلك لإيجاد إشارات إلى ما يعتقد أنك تبحث عنه. في عام 2012، تطور ذلك إلى Knowledge Graph، الذي سمح له ببناء قاعدة بيانات تتكون ليس فقط من الحقائق ولكن أيضا ً من العلاقات بين تلك الحقائق. في عام 2014، تم تعزيز ذلك بـ Knowledge Vault وقد أخذ هذا الأمر خطوة إضافية عن طريق تنفيذ خوارزميات التعلم الآلي لتحديد موثوقية الحقائق. يقوم بذلك من خلال حساب عدد الموارد التي تتفق مع مصدر بيانات معين كـ “حقيقة”. كما يفحص كيفية مصداقية المواقع التي تتفق معها من خلال ملاحظة مدى ارتباط المواقع الأخرى بها بانتظام. إذا كان العديد من الأشخاص يثقون فيها ويربطون بها، فمن المرجح أن تكون موثوقة، خاصة إذا كانت مرتبطة بمواقع ذات “سلطة عالية”، مثل المجالات الأكاديمية أو الحكومية.

الهدف النهائي يبدو أنه هو بناء واجهة بين الكمبيوترات والبشر تعمل بنفس الطريقة التي رأيناها في أفلام الخيال العلمي، مما يتيح لنا طرح الأسئلة بلغة بشرية طبيعية وتقديم الإجابة المناسبة بالضبط التي نحتاجها.

ما هي نقاط التعلم الرئيسية والمستندات المستفادة؟

أصبحت جوجل مسيطرة في مجال البحث بسبب جهدهم لإيجاد طرق أكثر كفاءة لربطنا بالبيانات التي نحتاجها مما نجحت فيه على منافسيها.

حافظت جوجل على لقبها من خلال الابتكار المستمر. استغلوا محرك البحث الخاص بهم عن طريق معرفة كيفية التقاط البيانات التي يجمعها منا أثناء تصفحنا للويب، وبناء إيرادات ضخمة من خلال أن تصبح أكبر بائعي الإعلانات عبر الإنترنت في العالم. ثم استخدموا الموارد الهائلة التي كانوا يجمعونها للتوسع بشكل سريع، وتحديد مجالات النمو مثل الهواتف المحمولة وإنترنت الأشياء (انظر الفصل 18، عن Nest) التي يمكن أيضًا تطبيق نموذج الأعمال المدفوع بالبيانات الخاص بهم عليها.

في السنوات الأخيرة، يُقال أن المنافسين مثل محرك بحث Bing التابع لشركة مايكروسوفت وشركة ياهو يكتسبون بعض الميزة، على الرغم من أن جوجل لا تزال تتصدر بشكل كبير كأكثر محرك بحث شعبية في العالم. ولكن مع استثمارات جوجل المستمرة في مجالات التكنولوجيا الجديدة والناشئة مثل السيارات بدون سائق والتحكم المنزلي الآلي، يمكننا توقع استمرار الابتكار وربما المزيد من المفاجآت.