Clúster Hadoop para la gestión integral de datos científicos masivos
El objetivo de esta actuación es implementar un clúster Hadoop en el Port d'Informació Científica (PIC) con el que los investigadores puedan generar, almacenar y analizar grandes conjuntos de datos, además de compartirlos y distri...
ver más
Fecha límite participación
Sin fecha límite de participación.
Financiación
concedida
El organismo AGENCIA ESTATAL DE INVESTIGACIÓN notifico la concesión del proyecto
el día 2021-01-01
No tenemos la información de la convocatoria
0%
100%
Información adicional privada
No hay información privada compartida para este proyecto. Habla con el coordinador.
¿Tienes un proyecto y buscas un partner? Gracias a nuestro motor inteligente podemos recomendarte los mejores socios y ponerte en contacto con ellos. Te lo explicamos en este video
Proyectos interesantes
TIN2014-55894-C2-1-R
BIG TIME-AWARE DATA: ANALISIS DE DATOS MASIVOS INDEXADOS EN...
125K€
Cerrado
SHIWA
SHaring Interoperable Workflows for large scale scientific s...
2M€
Cerrado
BigDataStack
High performance data centric stack for big data application...
5M€
Cerrado
CESG13-1E-1790
Infraestructura para soporte a proyectos Bigdata
235K€
Cerrado
TED2021-131798B-I00
SISTEMA DE ALMACENAMIENTO DE ALTAS PRESTACIONES PARA ENTORNO...
190K€
Cerrado
DataCloud
ENABLING THE BIG DATA PIPELINE LIFECYCLE ON THE COMPUTING CO...
5M€
Cerrado
Fecha límite de participación
Sin fecha límite de participación.
Descripción del proyecto
El objetivo de esta actuación es implementar un clúster Hadoop en el Port d'Informació Científica (PIC) con el que los investigadores puedan generar, almacenar y analizar grandes conjuntos de datos, además de compartirlos y distribuirlos con toda la comunidad científica. El clúster, que se ubicará en el servicio común del PIC denominado Big Data, aumenta la capacidad de la plataforma ya existente y posibilitará gestionar integralmente un flujo de trabajo de datos dentro del mismo servicio. Basado en el sistema de ficheros distribuido HDFS y todo su ecosistema tecnológico, va a facilitar la interacción y el manejo eficiente de grandes volúmenes de datos.Una parte fundamental del éxito de cualquier proyecto científico se mide por el impacto de sus resultados en la comunidad científica. Para ello, este clúster estará conectado a 200 Gbps con redes de datos externas y facilitará, a través de diferentes herramientas, la creación, análisis, exploración, visualización y distribución de los datos, para impulsar su uso, teniendo en cuenta los principios de la ciencia abierta.Para este objetivo habrá que desplegar una equipamiento con las siguientes especificaciones: un clúster con un mínimo de 1000 cores, con 10-40 GiB RAM por core, un mínimo de 2 PB de capacidad neta de almacenamiento, con cada nodo conectado a 10-25 Gbps y 4 nodos de administración en alta disponibilidad, además de varios switches para la red y el cableado correspondiente.