User:Wadha rashed alyammahi/Big data

.البيانات الكبيرة هي أحد أسباب انتشار الذكاء الاصطناعي في الوقت الحالي و هي تحتوي على تنوع أكبر يصل بأحجام متزايدة وبسرعة أعلى من أي وقت مضى

تاريخ ظهور البيانات الكبيرة

على الرغم من أن مفهوم البيانات الضخمة بحد ذاته جديد نسبيًا ، فإن أصول مجموعات البيانات الضخمة تعود إلى الستينيات والسبعينيات عندما كان عالم البيانات قد بدأ لتوه مع مراكز البيانات الأولى وتطوير قاعدة البيانات الترابطية.

في عام 2005 تقريبًا ، بدأ الناس يدركون حجم البيانات التي يولدها مستخدمو البيانات من خلال Facebook و YouTube والخدمات الأخرى عبر الإنترنت. Hadoop (إطار عمل مفتوح المصدر مصمم خصيصًا لتخزين وتحليل مجموعات البيانات الكبيرة) تم تطويره في نفس العام. بدأت NoSQL أيضًا في اكتساب شعبية خلال هذا الوقت.

كان تطوير أطر عمل مفتوحة المصدر ، مثل Hadoop (ومؤخراً ، Spark) ضروريًا لنمو البيانات الضخمة لأنها تسهل العمل مع البيانات الكبيرة وأرخص تخزينها. في السنوات التي تلت ذلك ، ارتفع حجم البيانات الضخمة. ما زال المستخدمون ينتجون كميات هائلة من البيانات - لكن ليس البشر فقط هم الذين يقومون بذلك.

مع ظهور إنترنت الأشياء (IoT) ، يتم توصيل المزيد من الكائنات والأجهزة بالإنترنت ، وجمع البيانات حول أنماط استخدام العملاء وأداء المنتج. لقد أنتج ظهور التعلم الآلي المزيد من البيانات.

على الرغم من أن البيانات الضخمة قد قطعت شوطًا كبيرًا ، إلا أن فائدتها بدأت للتو. الحوسبة السحابية وسعت إمكانيات البيانات الكبيرة إلى أبعد من ذلك. توفر السحابة قابلية مرنة للتوسع حقًا ، حيث يمكن للمطورين ببساطة تجميع مجموعات مخصصة لاختبار مجموعة فرعية من البيانات.

A google translation of the above is:

Big data is one of the reasons for the spread of artificial intelligence at the present time and it contains a greater diversity that arrives at increasing sizes and faster than ever before.

Date when big data appeared

Although the concept of big data itself is relatively new, the origins of big data sets go back to the 1960s and 1970s when the data scientist had just begun with the first data centers and the relational database development.

Around 2005, people began to realize the amount of data that data users generate through Facebook, YouTube and other online services. Hadoop (an open source framework specially designed to store and analyze large data sets) developed in the same year. NoSQL also started gaining in popularity during this time.

The development of open source frameworks, such as Hadoop (and more recently, Spark), was necessary for big data growth because it facilitated work with big data and cheaper storage. In the years that followed, huge data volumes increased. Users still produce massive amounts of data - but not only humans do this.

With the advent of the Internet of Things (IoT), more objects and devices are connected to the Internet, collecting data on customer usage patterns and product performance. The advent of machine learning has produced more data.

Although big data has come a long way, its usefulness has just begun. Cloud computing has expanded the capabilities of big data even further. The cloud provides truly flexible scalability, as developers can simply group custom combinations to test a subset of data.