У меня 10 серверов (16 ГБ памяти, 8 ядер) и я хочу развернуть Hadoop и Spark, можете ли вы сказать мне, какой план может обеспечить максимальное использование ресурсов?
немедленное развертывание;
установить Openstack, развернуть среду на виртуальную машину;
использование Docker, например Spark в Docker;
Я знаю использование ресурсов, связанное со сценарием использования, на самом деле я хочу знать преимущества и недостатки трех вышеперечисленных планов.
Спасибо.