Tradicionalmente, los sistemas de almacenamiento como las bases de datos utilizan los discos duros electromecánicos como almacenamiento persistente , Este tipo de dispositivo en el proceso de lectura o escritura de datos hacen uso de los componentes mecánicos, los cuales están sujetos a varias limitaciones en su velocidad y rendimiento en el proceso de lectura y escritura de datos, generando un retardo muy alto cuando se consultan grandes cantidades de información.
Debido a los retardos causados por el disco duro electromecánicos para el manejo de grandes cantidades de datos, se ha visto un aumento en el uso de la tecnología de almacenamiento in-memory que utilizan las memorias flash y otras tecnologías para mejora el rendimiento de las aplicaciones. Este tipo de tecnología es conocida como la computación in-memory, la cual está teniendo un impacto en los entornos de BIG DATA, facilitando el acceso a las aplicaciones de análisis de grandes volúmenes de datos en “tiempo real”.
Aunque los sistemas de almacenamiento in-memory no son nuevos, estos se han vuelto el centro de atención en la ultimas década, pero históricamente estos sistemas surgieron específicamente para satisfacer las necesidades de rendimiento y disponibilidad de recursos en los sistemas embebidos, buscando que la información este completamente almacenado en la memoria principal para “nunca” tener que ir a un almacenamiento secundario como los disco electromecánicos donde se persiste la información. En su defecto la tecnología in-memory utiliza frecuentemente las memorias flash para el almacenamiento persistente.
Los sistemas in-memory en comparación con los sistemas tradicionales de almacenamiento tiene varias ventajas, como ejemplo tenemos el caso de que un sistema tradicional utilice un sistemas de cache para mejorar las operaciones de lectura, este sistema de cache genera una fuente significativa de complejidad y de consumo de recursos como la CPU y RAM, ya que la aplicación de cache debe llevar a cabo tareas de sincronización entre la cache y el disco duro, tener un sistema de búsqueda de datos y actualizaciones de cache para referencias futuras, además de los encabezados o metadatos que se adiciona a los datos para la transferencia de los mismos, lo cual no ocurre en sistemas in-memory los cuales tiene una arquitectura que esta adaptada para disminuir la complejidad y el consumo de recursos.
Debemos tener en cuenta que los sistemas de almacenamiento in-memory, tienen la capacidad de cargar y almacenar datos y la metadata en la memoria RAM(memoria de acceso aleatorio), incrementando en gran medida el tiempo de respuesta y permitiendo reducir la cantidad de procesamiento en metadata, lo cual permite hacer mas directo y eficiente la interacción entre los datos a procesar en la CPU.
Esta es una parte de la evolución de los sistemas relacionales a las nuevos retos a los que se enfrenta los sistemas de almacenamiento.
Debido a los retardos causados por el disco duro electromecánicos para el manejo de grandes cantidades de datos, se ha visto un aumento en el uso de la tecnología de almacenamiento in-memory que utilizan las memorias flash y otras tecnologías para mejora el rendimiento de las aplicaciones. Este tipo de tecnología es conocida como la computación in-memory, la cual está teniendo un impacto en los entornos de BIG DATA, facilitando el acceso a las aplicaciones de análisis de grandes volúmenes de datos en “tiempo real”.
Aunque los sistemas de almacenamiento in-memory no son nuevos, estos se han vuelto el centro de atención en la ultimas década, pero históricamente estos sistemas surgieron específicamente para satisfacer las necesidades de rendimiento y disponibilidad de recursos en los sistemas embebidos, buscando que la información este completamente almacenado en la memoria principal para “nunca” tener que ir a un almacenamiento secundario como los disco electromecánicos donde se persiste la información. En su defecto la tecnología in-memory utiliza frecuentemente las memorias flash para el almacenamiento persistente.
Los sistemas in-memory en comparación con los sistemas tradicionales de almacenamiento tiene varias ventajas, como ejemplo tenemos el caso de que un sistema tradicional utilice un sistemas de cache para mejorar las operaciones de lectura, este sistema de cache genera una fuente significativa de complejidad y de consumo de recursos como la CPU y RAM, ya que la aplicación de cache debe llevar a cabo tareas de sincronización entre la cache y el disco duro, tener un sistema de búsqueda de datos y actualizaciones de cache para referencias futuras, además de los encabezados o metadatos que se adiciona a los datos para la transferencia de los mismos, lo cual no ocurre en sistemas in-memory los cuales tiene una arquitectura que esta adaptada para disminuir la complejidad y el consumo de recursos.
Debemos tener en cuenta que los sistemas de almacenamiento in-memory, tienen la capacidad de cargar y almacenar datos y la metadata en la memoria RAM(memoria de acceso aleatorio), incrementando en gran medida el tiempo de respuesta y permitiendo reducir la cantidad de procesamiento en metadata, lo cual permite hacer mas directo y eficiente la interacción entre los datos a procesar en la CPU.
Esta es una parte de la evolución de los sistemas relacionales a las nuevos retos a los que se enfrenta los sistemas de almacenamiento.
Otros
Posts:
- Big data y el ecosistema Hadoop
- En busca del análisis instantáneo de los datos
- Hey como gestiono los recursos digitales con soluciones Open Source