La empresa SAP española que supervisa operaciones empresariales del país, ha introducido una marca en el Libro Guiness de los Récords, al crear el almacén de datos más grande del mundo, de 12,1 petabytes (13 millones y medio de gygabytes), cuadriplicando el almacén que era el mayor de hasta ahora. El nuevo almacén recoge el espacio necesario hasta guardar más de 160 años de vídeo en alta definición, que equivaldría hasta 121 billones de fotos en Facebook y  72 trillones de operaciones en el mercado financiero. El almacén se ha creado utilizando la plataforma SAP HANA y el software SAP IQ 16, con procesadores Intel Xeon E7-4870 y Red Hat Enterprise Linux y el almacenamiento NetAppFAS6290 y E5460. Para ello, han sido necesarias las pruebas realizadas por el equipo de laboratorio SAP/Intel Petascale de Santa Clara, California y la colaboración independiente de InfoSizing, una firma de auditoría certificada por Transaction Processing Council. Anteriormente este conjunto había establecido otro record mundial para la carga e indexación de ‘Big Data’ a 34,3 terabytes por hora.
Según Vishal Sikka, un miembro del consejo ejecutivo de SAP para Productos e Innovación, el objetivo “era establecer nuevos límites para unir grandes volúmenes de datos con analíticas y a medida”. Se espera que el almacén ayude a resolver problemas externos en cuestión de ‘Big Data’ y analíticas.
Aqui las imagenes:




Creacion de un banco de datos para unos 160 años brindando informacion

La empresa SAP española que supervisa operaciones empresariales del país, ha introducido una marca en el Libro Guiness de los Récords, al crear el almacén de datos más grande del mundo, de 12,1 petabytes (13 millones y medio de gygabytes), cuadriplicando el almacén que era el mayor de hasta ahora. El nuevo almacén recoge el espacio necesario hasta guardar más de 160 años de vídeo en alta definición, que equivaldría hasta 121 billones de fotos en Facebook y  72 trillones de operaciones en el mercado financiero. El almacén se ha creado utilizando la plataforma SAP HANA y el software SAP IQ 16, con procesadores Intel Xeon E7-4870 y Red Hat Enterprise Linux y el almacenamiento NetAppFAS6290 y E5460. Para ello, han sido necesarias las pruebas realizadas por el equipo de laboratorio SAP/Intel Petascale de Santa Clara, California y la colaboración independiente de InfoSizing, una firma de auditoría certificada por Transaction Processing Council. Anteriormente este conjunto había establecido otro record mundial para la carga e indexación de ‘Big Data’ a 34,3 terabytes por hora.
Según Vishal Sikka, un miembro del consejo ejecutivo de SAP para Productos e Innovación, el objetivo “era establecer nuevos límites para unir grandes volúmenes de datos con analíticas y a medida”. Se espera que el almacén ayude a resolver problemas externos en cuestión de ‘Big Data’ y analíticas.
Aqui las imagenes: