Servidores Hadoop exponen 5.000 Terabytes de información
Hasta el año pasado, los delincuentes sólo apuntaban a ordenadores de individuos y organizaciones para infectarlos con ransomware, pero luego comenzaron a buscar bases de datos y servidores en línea sin protección para "secuestrarlos" y obtener un rescate.
A principios de este año, se conocieron varios incidentes donde decenas de miles de bases de datos desprotegidas de MongoDB y Elasticsearch mal configuradas fueron hackeadas y cifradas para luego pedir un rescate. Incluso hubo casos donde se habían robado y eliminado los datos.
Ahora, los delincuentes también pueden apuntar a Clusters Hadoop desprotegidos y a servidores Apache CouchDB que no no han sido configurados de forma segura.
Según Shodan, hay cerca de 4.500 servidores con archivos distribuidos Hadoop (HDFS), exponiendo más de 5.000 Terabytes (5.12 Petabytes). Esta exposición se debe a servidores basados en HDFS, en su mayoría instalaciones Hadoop que no se han configurado correctamente.
El Sistema de Archivos Distribuidos Hadoop (HDFS) es un sistema de archivos que ha sido diseñado para almacenar en forma confiable grandes conjuntos de datos y transmitirlos a aplicaciones de usuario. Al igual que otras tecnologías relacionadas con Hadoop, HDFS se ha convertido en una herramienta fundamental para gestionar grandes grupos de datos y soportar grandes aplicaciones de análisis de datos.
En una publicación en su blog, el fundador de Shodan, John Matherly, reveló que si bien el foco anterior habían sido las bases de datos de MongoDB y Elasticsearch expuestas en Internet, los servidores de Hadoop resultaron ser "el auténtico enemigo".
Aunque MongoDB tiene más de 47.800 servidores expuestos en Internet que expone 25TB de datos, Hadoop tiene sólo 4.487 servidores en total, pero expone una cantidad considerablemente mayor de datos de más de 5.000TB. La mayoría de los servidores de Hadoop que exponen datos en Internet se encuentran en Estados Unidos (1.900) y China (1.426), seguidos de Alemania (129) y Corea del Sur (115).
La mayoría de las instancias HDFS están alojadas en la nube con Amazon Web Services liderando la carga con 1.059 instancias y Alibaba con 507.
Matherly también ha compartido los pasos necesarios sobre cómo replicar las búsquedas en Shodan para que los usuarios puedan llevar a cabo sus propias investigaciones.
Se recomienda a los administradores que configuren sus servidores Hadoop para ejecutarlos en modo seguro siguiendo las instrucciones proporcionadas por Apache.
Fuente: The Hacker News
A principios de este año, se conocieron varios incidentes donde decenas de miles de bases de datos desprotegidas de MongoDB y Elasticsearch mal configuradas fueron hackeadas y cifradas para luego pedir un rescate. Incluso hubo casos donde se habían robado y eliminado los datos.
Ahora, los delincuentes también pueden apuntar a Clusters Hadoop desprotegidos y a servidores Apache CouchDB que no no han sido configurados de forma segura.
Según Shodan, hay cerca de 4.500 servidores con archivos distribuidos Hadoop (HDFS), exponiendo más de 5.000 Terabytes (5.12 Petabytes). Esta exposición se debe a servidores basados en HDFS, en su mayoría instalaciones Hadoop que no se han configurado correctamente.
En una publicación en su blog, el fundador de Shodan, John Matherly, reveló que si bien el foco anterior habían sido las bases de datos de MongoDB y Elasticsearch expuestas en Internet, los servidores de Hadoop resultaron ser "el auténtico enemigo".
Aunque MongoDB tiene más de 47.800 servidores expuestos en Internet que expone 25TB de datos, Hadoop tiene sólo 4.487 servidores en total, pero expone una cantidad considerablemente mayor de datos de más de 5.000TB. La mayoría de los servidores de Hadoop que exponen datos en Internet se encuentran en Estados Unidos (1.900) y China (1.426), seguidos de Alemania (129) y Corea del Sur (115).
La mayoría de las instancias HDFS están alojadas en la nube con Amazon Web Services liderando la carga con 1.059 instancias y Alibaba con 507.
Matherly también ha compartido los pasos necesarios sobre cómo replicar las búsquedas en Shodan para que los usuarios puedan llevar a cabo sus propias investigaciones.
Se recomienda a los administradores que configuren sus servidores Hadoop para ejecutarlos en modo seguro siguiendo las instrucciones proporcionadas por Apache.
Fuente: The Hacker News
Via: blog.segu-info.com.ar
Servidores Hadoop exponen 5.000 Terabytes de información
Reviewed by Zion3R
on
7:43
Rating: