En la industria 4.0, los hackers ponen la mira en los empleados, los servidores ya no son el principal blanco de los ataques. Expertos sugieren un modelo preventivo basado en las personas, los dispositivos conectados a internet están más expuestos a ciberdelitos por la gran cantidad de datos sensibles que recogen.

A pesar de los beneficios que el internet de las cosas (IoT), los sistemas ciberfísicos, el big data y la computación en la nube pueden generar a las empresas, los riesgos percibidos en términos de ciberseguridad están retrasando la adopción de estas tecnologías “dramáticamente”, según un informe del Mobile World Congress. Por eso, uno de los temas que se debatirán durante el congreso es si la industria conectada puede ser tan segura como la automatizada.

Fernando Anaya, responsable de desarrollo de negocio en España de la firma de ciberseguridad Proofpoint, confirma que la adopción del IoT ha supuesto una gran innovación en determinados sectores; sin embargo, está más expuesta a amenazas. “Se trata de dispositivos conectados a la red que están recogiendo gran cantidad de datos potencialmente sensibles”, explica.

En 2017, último año del que se disponen estadísticas oficiales, el Centro Criptológico Nacional gestionó más de 26,500 incidentes, lo que supone un 27% más que los 20,940 de 2016.

En su informe de tendencias, la agencia gubernamental advierte de que la ausencia de cifrado o las escasas o nulas actualizaciones de software hacen que los dispositivos conectados a internet sean especialmente vulnerables a ataques con ransomware, un código malicioso que restringe el acceso a datos clave y exige un rescate a cambio de desbloquearlos.

El caso más sonado de un ataque con ransomware se produjo en mayo de 2017, cuando WannaCry, un virus de este tipo, infectó 300,000 ordenadores alrededor del mundo, paralizando hospitales públicos en Reino Unido, trenes en Alemania y fábricas de coches en Francia. En España, la compañía más afectada fue Telefónica, aunque no repercutió en el servicio a sus clientes.

Los expertos de Accenture recomiendan trabajar de forma proactiva en modelos de prevención, incluir la seguridad en cada proceso y producto y certificar la relación con clientes y proveedores.

Objetivo: los VAP

Anaya, de Proofpoint, aconseja realizar un análisis en profundidad que permita encontrar patrones de comportamiento irregulares. “Hasta ahora, el email es el principal vector de ataque de los hackers. No obstante, observamos un cambio importante: los ciberdelincuentes ya no se centran en los servidores de las empresas, sino que eligen como objetivo a las personas, en concreto, a las llamadas VAP (very -attacked people)”, avisa.

VAP es aquel empleado que tiene acceso a información sensible, pero que debido a su posición intermedia en el escalafón de la empresa, recibe poca atención por parte de los equipos de seguridad de su organización. “Por eso, recomendamos a las compañías adoptar un enfoque más orientado a las personas que a las infraestructuras, con soluciones basadas en la nube”, indica.

José Arias, director de ventas de seguridad de T-Systems Iberia, recuerda que la idiosincrasia de una fábrica conectada es muy diferente a la de un entorno informático. “Mientras que en los sistemas TIC lo importante es que no se pierdan datos, en las industrias lo fundamental es garantizar que no se pare la producción, ya que los costo son muy elevados. “No hay que olvidar que el eslabón más débil es el usuario”, afirma Pedro Viñuales, vicepresidente de cuentas claves, servicios de seguridad y telecomunicaciones de Panda Security. “De nada sirve tener las mejores protecciones de seguridad en una organización si los usuarios no han recibido una correcta educación”, precisa.

Estrictamente hablando, Linux es el núcleo de las distribuciones. Me gusta pensar en el kernel de Linux como la placa base de Legos. Es donde todas las otras piezas se unen.

Una distribución, o “distribución” para abreviar, es un sistema operativo completo que incluye un núcleo, paquetes, administradores de paquetes y todo lo demás necesario. En otras palabras, las distribuciones son conjuntos de bloques de construcción premontados dependiendo de las preferencias y necesidades del usuario. Red Hat, SUSE y Ubuntu son ejemplos de algunas de las distribuciones más populares. Hay muchos otros para enumerar aquí, pero aquí hay algunos recursos para darle una idea.

Casos de uso de Linux

Como usuario de Linux desde hace mucho tiempo, puedo entender por qué no despegó como un sistema operativo de propósito general como MS Windows. Hay demasiadas opciones, diferencias entre esas opciones y la falta percibida de estandarización. También existe la reputación de ser difícil de usar. ¿Por qué entonces alguien querría usar Linux, en lugar de Microsoft Windows o Mac OS X, por ejemplo? Al igual que la cantidad de distribuciones, la cantidad de casos de uso de Linux también es muy extensa, por lo que cubriré sólo algunos populares.

IoT

El software de código abierto suele ser gratuito, aunque algunas distribuciones respaldadas comercialmente, como RHEL, cobran tarifas de suscripción. Linux se ejecuta en muchos tipos diferentes de hardware, como dispositivos IoT, computadoras personales, equipos de red, equilibradores de carga, supercomputadoras y casi todo lo que parece. Puede ejecutarse en hardware de gama baja o menos común. Esto lo hace perfecto para dispositivos IoT, donde la potencia de procesamiento puede ser limitada y los costos deben mantenerse bajos.

“La nube”

También alimenta hardware de muy alta gama, incluyendo gran parte de lo que alimenta “la nube”. Los servidores que alimentan Internet necesitan un sistema operativo confiable que pueda funcionar continuamente sin tiempo de inactividad, manteniendo un alto nivel de seguridad. Hay muchas menos circunstancias en las que los sistemas operativos basados en Linux requieren un reinicio.

Aunque no lo recomendaría para la mayoría de los casos de uso, ciertamente es posible que los dispositivos Linux se ejecuten continuamente durante años sin reiniciar. También es mucho más fácil evitar virus y malware. Esto es ideal para servidores web, bases de datos, equilibradores de carga, enrutadores, conmutadores, firewalls, servidores de almacenamiento, hipervisores de máquinas virtuales y muchas otras piezas de infraestructura crítica de TI.

 

Contenedores

La tendencia a “contenerizar” todo ha tomado al mundo por sorpresa. Aunque los contenedores de MS Windows ahora son una opción, hasta hace poco Linux era su única opción. Es una plataforma mucho más madura para contenedores. Hay mucha mejor documentación y soporte para contenedores en Linux. Es mucho más liviano, lo que permite implementaciones mucho más densas, así como portabilidad.

Un ejemplo de un sistema operativo contenedor popular es Alpine Linux . “Está construido alrededor de musl libc y busybox. Esto lo hace más pequeño y más eficiente en recursos que las distribuciones tradicionales de GNU / Linux. Un contenedor no requiere más de 8 MB y una instalación mínima en el disco requiere alrededor de 130 MB de almacenamiento. No sólo obtienes un entorno Linux completo, sino una gran selección de paquetes del repositorio”.

AI

La Inteligencia Artificial (IA), el aprendizaje automático y el aprendizaje profundo también están recibiendo mucha atención en estos días. Linux ofrece una serie de ventajas en este espacio, incluida una mejor integración con los contenedores. Hay muchos ejemplos y mucha documentación para ayudar a alguien a construir un proyecto de IA en Ubuntu, por ejemplo.

¿Quiere entrenar su modelo en la nube, pero implementarlo en el borde de un dispositivo o contenedor IoT de baja potencia? Probablemente tendrá un tiempo mucho más fácil, junto con resultados mejores y más predecibles en Linux.

Es un error común pensar que los centros de datos deben mantenerse fríos. De hecho, los fabricantes recomiendan que la temperatura del aire de admisión del equipo de TI estén ligeramente por encima de la temperatura ambiente para la máxima fiabilidad, disponibilidad y rendimiento – tan alto como 27.6 ° C. Las recomendaciones de temperatura que se enumeran en este blog son apropiadas para la mayoría de las pequeñas y medianas empresas,

Las temperaturas “permitidas” pueden llegar hasta 32 ° C durante períodos de tiempo limitados sin afectar la fiabilidad de funcionamiento a corto plazo. La mayoría de los equipos de TI están diseñados para sobrevivir a temperaturas superiores a los 30º C, aunque puede que no funcionen de forma fiable.

Sin embargo, correr a estas temperaturas elevadas acortará la vida útil del equipo. (Los aumentos de temperatura a largo plazo son especialmente problemáticos para las baterías de UPS, por ejemplo, la vida útil estimada de una batería típica disminuye en un 50% cuando la temperatura ambiente aumenta a más de 25º C

Lo Ideal para los equipos de TI es mantener la temperatura  entre de 22 y 25 °C. Las temperaturas por debajo de esos grados no mejoran las condiciones de funcionamiento ni proporciona otros beneficios, por lo que es simplemente un desperdicio innecesario y costoso de energía. Si las temperaturas están por debajo de los 20 ° C sin ningún costo de electricidad asociado o cambios de temperatura, eso no es un problema.

El equipo de TI puede funcionar de forma fiable con temperaturas de aire de admisión superiores a 25 ° C, la mayor velocidad y el consumo de energía de los ventiladores de refrigeración dentro del equipo tiende a contrarrestar (o incluso superar) otros ahorros de energía y de costos.

Los acondicionadores de aire  con gestión remota están disponibles en diseños portátiles compactos. Las unidades de refrigeración portátiles SRCOOL18K y SRCOOL24K ofrecen aire acondicionado fácil de instalar diseñado, construido y probado para entornos de TI exigentes. Portátiles y autónomos, los SRCOOL18K y SRCOOL24K son perfectos para la refrigeración primaria, de respaldo o suplementaria en salas de servidores, centros de datos y otros lugares con equipos sensibles al calor.

La instalación es fácil de hacer, sin necesidad de un proyecto de construcción o los costosos servicios de un especialista en ventilación artificial.