The IT Mag

Data Center as a Service y el nuevo juego de la infraestructura

4 minutos de lectura
Por Abraham Ramírez - julio 6, 2016    TI al día, data center as a service, data center como servicio, data center y nube, Infraestructura

DataCenterLas nuevas tecnologías representan cargas de trabajo para los Data Centers cada vez más complicadas de manejar. A este crecimiento vertiginoso hay que sumar la necesidad empresarial de mantener el negocio siempre en marcha y generando ingresos, y más allá, encontrar nuevos modelos de negocio que monetizar.

Pero aún con todas estas exigencias sobre los Data Centers, según reportes de Gartner para 2020 más del 70% serán capaces de reducir 30% del espacio físico usado en 2015.

“Los Data Centers seguirán creciendo, así que para mantener la ligereza habrá que sacar algunas aplicaciones a tercerización en Data Center as a Service (DCaaS)”, comentó Henrique Cecci, Director de Investigación de Gartner.

Y es que el advenimiento de la nube ha venido transformando radicalmente la relación entre las empresas y las TI. La meta de alinear al máximo negocios y tecnología es una realidad completamente planificable y alcanzable.

La nube representa el cambio más disruptivo de las TI de los últimos 30 años, ya que no sólo ha terminado modificando al Data Center, sino que también transformado el modelo de negocio de muchos proveedores de la industria tecnológica a nivel mundial.

 

“Con los nuevos movimientos de las economías emergentes, muchas compañías están invirtiendo en infraestructuras de servicios de nube como una forma de soportar su crecimiento de negocio y también tener o mantener sus aplicaciones siempre actualizadas con modelos diferenciados que no solo se reflejan en CAPEX, sino en OPEX también”, dijo en entrevista Sandro Bertelli, Gerente de Infraestructura en Telefónica ElevenPaths.

¿En qué momento de su estrategia una empresa debe optar por un Data Center as a Service?

El ejecutivo es claro cuando dice que es una decisión que refleja el grado de madurez de una compañía.

“Muchas veces las compañías, por una cuestión de velocidad y agilidad, no tienen tanta inversión para hacer en su casa y acaban necesitando adoptar un servicio de nube por el bien del propio negocio. Hoy las tecnologías están mucho más maduras, los temas de seguridad que teníamos en el pasado están más ajustados y mitigados, y creo que es un buen momento para tomar la decisión de salir del modelo tradicional e ir a probar un servicio de nube”, explicó Bertelli.

Pero, ¿cómo empezar?

“Primero hay que iniciar por nubes híbridas, no intentar mover todo a la nube de primer momento; en un modelo de nube híbrida pueden intentar hacer pruebas con servicios más sencillos y tomar así un poco más de conocimiento y tener contacto con los servicios de nube de los proveedores; así, una vez que se tenga más contacto y conocimiento, pueden ir añadiendo o trasladando más servicios de misión crítica hacia la nube en estos centros.

“Mi sugerencia es ir despacio, conocer los servicios de los proveedores y después mover todo no solo para modelos de nube híbrida, sino también en soluciones de recuperación de desastres en nube, que son temas importantes por que involucran grandes ahorros de costos en comparación con las soluciones tradiciones de recuperación de desastres que teníamos en el pasado. La nube optimiza el uso de estas nuevas tecnologías”, explicó Bertelli.

En el Data Center también hay colaboración

No hay duda alguna que los Data Centers se están transformando en beneficio de las nuevas tendencias y un ejemplo de ello son los nuevos formatos de colaboración como lo es el Open Compute Project.

En 2009, en pleno crecimiento, Facebook comenzó a ofrecer nuevos servicios dando a millones de personas una plataforma impecable para compartir fotos y videos. Dando un paso hacia adelante, la compañía se dio cuenta de que tenía que replantearse su infraestructura para dar cabida a la gran afluencia de datos nuevos y también controlar costos y consumo de energía.

Fue en ese momento cuando Facebook comenzó un proyecto para el diseño del centro de datos de mayor eficiencia energética en el mundo, uno que pudiera manejar una escalabilidad sin precedentes con el menor costo posible.

The Open Compute Project (OCP)es una comunidad colaborativa enfocada en rediseñado hardware e infraestructura para soportar el crecimiento de las nuevas demandas que sufren los Data Centers.

¿Cuál es el secreto en el éxito de esta colaboración? La reducción de costos operativos compartiendo infraestructura.

 

¿Tienes un proyecto? ¡Visita nuestra sección