Los ocho métodos de ahorro de energía del centro de datos Más ecológicos y más económicos

  

Los administradores de los centros de datos de hoy en día luchan por enfrentar la agitación de las empresas exigentes en el mercado cada vez más competitivo dentro de los limitados presupuestos de la economía del software. Están buscando formas de reducir el costo de administración de sus negocios. Actualmente, el porcentaje más rápido y más elevado de los costos operativos del centro de datos son los gastos de energía de los servidores y los sistemas de refrigeración.

Algunas de las tecnologías de ahorro de energía más efectivas requieren una gran cantidad de inversión inicial, y se necesitan años para obtener un retorno de la inversión. Pero algunas de las técnicas que a menudo se pasan por alto son costosas. La razón por la que estas tecnologías a menudo se pasan por alto es que parecen poco prácticas o demasiado radicales. Los ocho métodos de ahorro de energía que se enumeran a continuación se han probado y probado en un entorno de centro de datos del mundo real y han demostrado ser eficaces. Algunas de las tecnologías que aplica a los entornos de producción pueden generar inmediatamente un retorno de la inversión, otras pueden requerir una inversión de capital, pero la tasa de rendimiento es más rápida que el retorno de la inversión de los fondos de TI tradicionales.

El estándar de medición de eficiencia energética del centro de datos es la tasa de utilización de energía (PUI), la proporción más baja indica una mejor utilización y 1.0 es el objetivo ideal para la eficiencia energética. La eficiencia energética es el contraste entre el costo total de la energía del centro de datos y la cantidad de tareas convertidas en computación efectiva. El valor común de la relación 2.0 significa que los 2 vatios de energía consumidos originalmente por un servidor en un centro de datos se redujeron a 1 vatio. La pérdida se debe a que la energía se convierte en calor, lo que a su vez requiere que la energía sea eliminada por los sistemas tradicionales de enfriamiento del centro de datos.

Desde un simple estándar de medición, debe observar y definir la eficiencia energética de esta manera: es una medida de la eficiencia de la electricidad. Este método de medición no tiene en cuenta otras fuentes de energía, como la temperatura ambiente o las pilas de combustible de hidrógeno, muchas de las cuales se pueden usar para reducir el consumo total de energía. Las técnicas que se describen a continuación pueden o no reducir su eficiencia de energía medible, pero puede evaluar su efectividad más fácilmente revisando las facturas mensuales de electricidad. En cualquier caso, esta es la verdadera preocupación de los usuarios empresariales.

No encontrará una introducción a la energía solar, eólica o hidrógeno en este artículo. Estas fuentes de energía opcionales requieren una gran inversión antes de que la tecnología se ponga en práctica, lo que reducirá en gran medida las ventajas de ahorro de costos en la actual crisis económica. En contraste, ninguna de las siguientes ocho tecnologías requiere algo más complicado que los ventiladores y las tuberías.

Estas ocho tecnologías son las siguientes:

1. Aumente la temperatura del centro de datos

2. Apague el servidor no utilizado

3. Use gratis Refrigeración del aire exterior

4. Uso del calor del centro de datos para calentar el área de la oficina

5. Uso de una unidad de estado sólido para ejecutar un conjunto de datos de solo lectura altamente activo

6 Use DC en el centro de datos

7. Introduzca calor en el suelo

8. Descargue calor en el mar a través de la tubería.

Uno de los métodos básicos de ahorro de energía: aumentar los datos La temperatura del centro

La forma más fácil de ahorrar energía es que también puede hacer que Masa siga en acción esta tarde: aumente la temperatura del regulador de temperatura del centro de datos. Por lo general, la temperatura del centro de datos se establece en 68 grados Fahrenheit o menos, lo que lógicamente extiende la vida útil del dispositivo y le permite al usuario tener más tiempo para responder cuando falla el dispositivo de enfriamiento.

La experiencia ha demostrado que cuando falla el hardware de un servidor, especialmente si falla el disco duro, aumenta la temperatura de funcionamiento del sistema. Pero en el último año, la economía de TI ha cruzado un punto de inflexión importante: los costos operativos del servidor generalmente superan los costos de adquisición. Esto puede hacer que sea más práctico mantener el hardware que recortar los costos operativos.

En la conferencia de GreenNet del año pasado, el director de energía de Google, Bill Weihl, presentó la experiencia de Google en la mejora de la temperatura del centro de datos. Weihl dijo que 80 grados Fahrenheit es seguro de usar como una nueva configuración, pero los datos El centro debe cumplir con un requisito previo simple: separe el flujo de aire frío del flujo de aire caliente tanto como sea posible, utilizando cortinas o barreras sólidas si es necesario.

Aunque 80 grados Fahrenheit es una actualización de temperatura segura, la experiencia de Microsoft muestra que puede ajustar la temperatura aún más. Los centros de datos de Microsoft en Dublín e Irlanda operan en un modo de "menos enfriamiento", utilizando enfriamiento externo por aire gratuito, y la temperatura de entrada del servidor es de aproximadamente 95 grados Fahrenheit. Sin embargo, tenga en cuenta que cuando aumenta la temperatura, la velocidad del ventilador del servidor necesaria para aumentar el consumo de energía aumenta, por lo que hay una atenuación de retorno.

Método básico de ahorro de energía 2: desactivar los servidores no utilizados

La tecnología de virtualización muestra el ahorro de energía al integrar procesadores, discos duros y memoria no utilizados. Entonces, ¿por qué no apagar todo el servidor? ¿Aumentará esto la “flexibilidad empresarial” que coincide con los costos de energía que consumen? Si puede encontrar instancias en las que el servidor está inactivo, puede minimizar el consumo de energía de estos servidores a cero. Pero primero hay que tener en cuenta las opiniones de los oponentes.

En primer lugar, generalmente se cree que debido a que la presión se acumula en los componentes de conmutación que no son de dominio, como los adaptadores de la placa base, el ciclo de energía reduce la vida útil del servidor. Esto lleva a la conclusión de que en las aplicaciones del mundo real, los servidores se crean a partir de los mismos componentes que se utilizan a diario en aquellos dispositivos que ocurren con frecuencia en los ciclos de energía, como los automóviles y los dispositivos médicos. No hay evidencia de que cualquier MTBF reducido (es decir, el tiempo medio entre fallas) sea el resultado del servidor del ciclo de energía.

La segunda objeción es que el servidor tardó demasiado en iniciarse. Sin embargo, por lo general, puede acelerar el inicio del servidor desactivando las herramientas de diagnóstico de tiempo de importación innecesarias, importando y adoptando la funcionalidad de inicio rápido provista en algún hardware directamente desde la imagen de instantánea que ya se está ejecutando.

La tercera objeción es: si tenemos que reiniciar un servidor para acomodar la carga dura, entonces no importa qué tan rápido sea la importación, los usuarios no pueden esperar. Sin embargo, la mayoría de las arquitecturas de aplicaciones no son familiares para los nuevos usuarios porque los requisitos del proceso son mucho más lentos, por lo que los usuarios no saben que están esperando que se inicie el servidor. El software de la aplicación alcanza los límites de la cantidad de usuarios, y si el usuario sabe que "iniciamos más servidores para acelerar la respuesta a la demanda", podría estar dispuesto a hacerlo.

Copyright © Conocimiento de Windows All Rights Reserved