search
Q: Which open source framework is widely used for storing and processing large datasets in a distributed computing environment?
  • A. Apache Hadoop/अपाचे हडूप
  • B. MongoDB/मोंगोडीबी
  • C. Apache Kafka/अपाचे काफ्का
  • D. Tensor Flow/टेंसरफ्लो
  • E. None of the above/उपर्युक्त में से कोई नहीं
Correct Answer: Option A - अपाचे हडूप (Apache Hadoop) एक ओपन-सोर्स फ्रेमवर्क है जो वितरित कंप्यूटिंग वातावरण में बड़े पैमाने पर डेटा को संग्रहित और संसाधित (Processing) करने के लिए उपयोग किया जाता है। यह HDFS (Hadoop Distributed File System) और Map Reduce जैसे घटकों पर आधारित होता है जो बड़े डेटा सेट को वितरित और समानांतर रूप से संसाधित करने में सक्षम होते हैं।
A. अपाचे हडूप (Apache Hadoop) एक ओपन-सोर्स फ्रेमवर्क है जो वितरित कंप्यूटिंग वातावरण में बड़े पैमाने पर डेटा को संग्रहित और संसाधित (Processing) करने के लिए उपयोग किया जाता है। यह HDFS (Hadoop Distributed File System) और Map Reduce जैसे घटकों पर आधारित होता है जो बड़े डेटा सेट को वितरित और समानांतर रूप से संसाधित करने में सक्षम होते हैं।

Explanations:

अपाचे हडूप (Apache Hadoop) एक ओपन-सोर्स फ्रेमवर्क है जो वितरित कंप्यूटिंग वातावरण में बड़े पैमाने पर डेटा को संग्रहित और संसाधित (Processing) करने के लिए उपयोग किया जाता है। यह HDFS (Hadoop Distributed File System) और Map Reduce जैसे घटकों पर आधारित होता है जो बड़े डेटा सेट को वितरित और समानांतर रूप से संसाधित करने में सक्षम होते हैं।