El equipamiento solicitado es un clúster computacional para computación distribuida tradicional, computación big data en disco e in-memory analytics, con imagen única de sistema y capacidad de computación, conectividad y almacenam...
ver más
Fecha límite participación
Sin fecha límite de participación.
Financiación
concedida
El organismo AGENCIA ESTATAL DE INVESTIGACIÓN notifico la concesión del proyecto
el día 2015-01-01
No tenemos la información de la convocatoria
0%
100%
Información adicional privada
No hay información privada compartida para este proyecto. Habla con el coordinador.
¿Tienes un proyecto y buscas un partner? Gracias a nuestro motor inteligente podemos recomendarte los mejores socios y ponerte en contacto con ellos. Te lo explicamos en este video
Fecha límite de participación
Sin fecha límite de participación.
Descripción del proyecto
El equipamiento solicitado es un clúster computacional para computación distribuida tradicional, computación big data en disco e in-memory analytics, con imagen única de sistema y capacidad de computación, conectividad y almacenamiento suficiente para las necesidades del CNIO compuesto por: -Sistema SMP de memoria compartida con al menos 16 sockets x86 o similar de última generación, mínimo 200 cores de computación-Al menos 2TB de memoria compartida DDR4 2133 MHz para in-memory analytics-Conectividad interna y externa mínimo 10Gbit-Sistema de almacenamiento JBOD con conexión SAS hacia el servidor, 100TB mínimo para scratch/Hadoop-Instalable en rack estándar del CNIO (44U)Las nuevas tecnologías de caracterización molecular masiva, y en especial la secuenciación de nueva generación, están produciendo datos a una escala sin precedentes, poniendo el foco en el procesamiento, el análisis y la visualización de los datos, y no solamente en su generación,Para llevar a cabo estas tareas se necesitan soluciones computacionales más eficientes y avanzadas, y capaces de implementar nuevas tecnologías de computación que se han desarrollado en otros entornos de analítica de datos a gran escala, Estas tecnologías incluyen, junto con la computación de alto rendimiento (HPC), nuevos paradigmas como las bases de datos no relacionales, procesamiento distribuido de big data (Apache Hadoop), in-memory analytics (Spark) y soluciones elásticas de nube híbrida