Tendencias y predicciones de Red Hat EMEA para 2023

Tendencias y predicciones tecnológicas para 2023

©BigStock

Actualizado 20 | 12 | 2022 10:32

Tendencias tecnológicas

Expertos de Red Hat nos detallan las tendencias y predicciones tecnológicas que nos esperan en el 2023.

La Inferencia de la IA desde la nube hasta edge

Experto:  Salim Khodri, especialista en comercialización Edge, EMEA, Red Hat

¿Por qué la IA será tan importante para el Edge Computing en 2023? La Inteligencia Artificial o el Machine Learning están muy extendidos en los centros de datos centralizados o en la nube pública. Pero las nuevas tendencias de la Industria 4.0, con el importante crecimiento de los dispositivos inteligentes IoT desplegados en el edge, es un medio de cambio para conseguir que la inferencia se realice más cerca del usuario final, ya que las necesidades de procesamiento casi en tiempo real están creciendo en el edge. Tomemos como ejemplo los coches autónomos. Una latencia incoherente podría aumentar significativamente el riesgo de accidentes.

Además, la inferencia en una nube centralizada requiere mover datos entre elementos informáticos. Esto no sólo cuesta tiempo y dinero, sino que conlleva problemas de limitación del ancho de banda. Además de los retos de latencia y ancho de banda, el coste es otro factor cuando se trata de procesar y analizar grandes cantidades de datos en la nube. Por lo tanto, el uso de IA/ML para abordar necesidades casi en tiempo real en el edge requiere trasladar la inferencia de IA de la nube al edge para beneficiarse de la baja latencia de la computación en el edge y del ahorro de ancho de banda de la red.

Pero la inferencia de IA no es fácil en el edge…

Si bien esperamos que muchas organizaciones consideren la IA en el edge en 2023, se debe tener en cuenta los múltiples desafíos únicos de la inferencia en el edge. En primer lugar, la gestión de la IA en el edge puede llevar mucho tiempo y ser costosa cuando hay que instalar y mantener docenas o miles de dispositivos. Otro reto es asegurar la arquitectura del edge computing con múltiples ubicaciones que pueden tener una TI mínima o inexistente. La seguridad debe ser integral, desde la nube hasta el edge. Con la IA procesada en el edge, la aplicación empresarial que gestiona la propiedad intelectual y los datos confidenciales recogidos de los sensores debe estar siempre protegida. Además, las organizaciones que busquen Edge AI tendrán que gestionar un elevado número de sitios dispersos por todo el territorio. Tendrán que buscar alguna forma de entrenar, desplegar y operar estas aplicaciones de IA en el edge y beneficiarse de las capacidades de despliegue automatizado y gestión del ciclo de vida generalmente disponibles in situ o en la nube pública.

Por lo tanto, la gestión de la inteligencia artificial en el edge es cuestión de control…

De acuerdo con los retos descritos anteriormente, la gestión de la inteligencia artificial en el edge es tan buena como el control que se tenga sobre ella. Ejecutar aplicaciones de IA en el edge requerirá un control en profundidad para ejecutarlas de forma segura y a escala, con el fin de tener la tranquilidad de saber que, pase lo que pase, la información recopilada para la toma de decisiones basada en datos estará siempre disponible y protegida.

Por lo tanto, podemos esperar que, al considerar el avance hacia la IA edge, muchas organizaciones busquen una plataforma de nube híbrida con gestión y seguridad centralizadas que pueda ayudar a crear, ejecutar, gestionar y escalar despliegues de IA en docenas y hasta miles de servidores desplegados en el edge. Esto respalda la ambición de llevar rápidamente la inteligencia artificial a las redes de tiendas minoristas, almacenes, hospitales, fábricas, etc. Además de ayudar a simplificar las operaciones, muchas organizaciones considerarán una gestión centralizada para la IA edge, ya que puede ayudar a reducir costes y, por lo tanto, hacer que la IA sea más accesible y práctica en todas las ubicaciones.

Edge Computing / Tecnologías emergentes

Experto: Ishu Verma, technical evangelist, Edge Computing, Red Hat 

Se esperan muchos cambios en 2023 con respecto al último quinquenio, periodo en el que se observó que las startups con vocación de expansión competían ofreciendo servicios y productos que se vendían con pérdidas para ganar rápidamente cuota de mercado. El mercado, impulsado por los fondos de riesgo, valoraba a estas empresas mucho mejor que a sus competidoras tradicionales.

Al volver a centrarse en la rentabilidad, es posible que las nuevas empresas tengan que subir los precios o dejar de ofrecer productos o servicios deficitarios. Las empresas que confían en los servicios a bajo precio de las startups tendrán que recalcular el retorno de la inversión de sus proyectos para decidir si tiene sentido a nivel de negocio continuar con ellos.

Las empresas intentarán ampliar el alcance de sus presupuestos de TI aumentando el uso de productos y servicios ya adquiridos (por ejemplo, compromisos de gasto en la nube o licencias para toda la empresa). Las iniciativas empresariales como el edge computing, respaldadas por una sólida motivación empresarial, seguirán ganando adeptos siempre que estén alineadas con los profesionales de la empresa. El código abierto seguirá beneficiándose de los limitados presupuestos de TI. La tendencia alcista beneficiará a todos los proyectos de software de código abierto, así como a los productos compatibles y listos para la empresa que necesita la TI empresarial.

Cloud | Cloud Native

Experto: Leslie Hawthorn, Senior Manager, Vertical Community Strategy, Red Hat

«El desarrollo de Kubernetes y los nuevos proyectos nativos de la nube se centrarán cada vez más en la fiabilidad, la capacidad de gestión y la seguridad. Esta evolución es normal, ya que Kubernetes ha pasado de ser un proyecto experimental a una tecnología en la que confían miles de personas.  Un área particular de desarrollo y nuevas herramientas será la gestión fluida de muchos (incluso miles) de clústeres Kubernetes.  Los proyectos de código abierto en este campo incluyen Argo, OCM, Crossplane y KCP».

Herramientas para desarrolladores

Experto: Markus Eisele, Developer Tools Strategy, Red Hat 

  1. “Los contenedores y los sistemas distribuidos siguen impulsando las iniciativas de modernización de TI en las organizaciones empresariales. Según el informe Global Tech Outlook de Red Hat, las organizaciones siguen centrándose en la modernización de las aplicaciones existentes y dan prioridad a este aspecto frente a la creación de nuevas aplicaciones móviles. Cada vez es más importante tomar las decisiones correctas sobre qué y cómo trasladar las aplicaciones e infraestructuras existentes a la nube. Para gestionar esta complejidad es necesario tener más conocimientos y procesos estructurados. Según el informe Global Tech Outlook dotar de nuevas herramientas a los desarrolladores es significativamente menos probable que se convierta en una prioridad de financiación para las empresas de cara a 2023, lo que hace que las herramientas para desarrolladores de código abierto como Konveyor sean cada vez más atractivas».
  2. «Aunque la creación de contenedores se ha convertido en una parte esencial del desarrollo, sigue estando limitada a unas pocas herramientas y permanece aislada en configuraciones no estandarizadas. Los contenedores se convertirán no sólo en el vehículo de transporte del código de las aplicaciones, sino también en el punto de partida para el despliegue directo de infraestructuras desde el portátil de un desarrollador. Con herramientas de código abierto como Podman Desktop es cada vez más sencillo no solo crear y fomentar contenedores, sino también para trabajar con Kubernetes y Pods directamente».
  3. «Los entornos de desarrollo siguen siendo difíciles de distribuir. Con más configuraciones específicas de la nube y un acoplamiento más ceñido a la gestión de identidades y accesos de las soluciones de nube híbrida, veremos más herramientas que ayuden a abstraer esta complejidad y a establecer una verdadera definición de «aplicación en la nube». Esto sucederá redefiniendo la configuración de las aplicaciones y convirtiendo una amplia variedad de parámetros en una nueva metodología de despliegue».
  4. «Otro enfoque que se adoptará ampliamente entre los nativos de Kubernetes es la integración de un portal para desarrolladores en el ciclo de vida de desarrollo de software. La comunidad backstage.io seguirá esforzándose y aportando automatización y estandarización a los equipos de desarrollo».
  5. «La complejidad de las aplicaciones en la nube y en múltiples nubes no será menor a corto plazo. El número de capas arquitectónicas y conceptos disponibles para los equipos de desarrollo requerirá un fuerte enfoque en las llamadas «Golden Paths«. Según el informe Global Tech Outlook de Red Hat, de cara a 2023, la nube híbrida sigue siendo la estrategia de nube más común, pero en general se observa un descenso en las empresas que buscan establecer una estrategia de nube. Las empresas deben invertir tiempo en definir sus estrategias «Go To Cloud» con guardarraíles claros sobre las tecnologías, lo que puede ayudar a evitar la deuda técnica y el bloqueo de proveedores».

Industria y Energía

Experto: Morten Rohlfes, Global director, Industrial Accounts, Red Hat  

Como parte de la evolución de la Industria 4.0, en 2022 asistimos a la continua fusión de las tecnologías de la información (TI) y las tecnologías operativas (TO) en escenarios como fábricas, cadenas de montaje, robots y controladores de procesos. Las organizaciones industriales están acabando con los silos internos con la ayuda de tecnologías como las API abiertas y la nube híbrida abierta, y aplicando cambios culturales, como la colaboración más abierta entre los equipos.

Podemos esperar que esta convergencia TI/OT se acelere en 2023. El progreso de casos de uso populares como el mantenimiento predictivo, los gemelos digitales y el «todo» definido por software se verá impulsado por los requisitos de seguridad y las necesidades de transferencia inteligente de datos. El uso de contenedores para permitir la producción digital inteligente en la fábrica está en auge, lo que permite una gestión y un movimiento coherentes del software desde el edge a través de la planta hasta el centro de datos. Un director de planta puede pulsar un botón para que grandes partes de las plantas se actualicen automáticamente, ahorrando costes y tiempo de configuración.

Los controladores de procesos definidos por software (PLCs, por sus siglas en inglés) mostrarán un importante crecimiento en 2023 a través de proveedores de PLC y proveedores de software (ISV). Esto ayudará a modernizar la antigua infraestructura patentada y a conectarla a una fábrica inteligente, lo que agilizará la puesta en marcha de las fábricas.

La sostenibilidad seguirá siendo una prioridad importante en 2023 para las empresas manufactureras, que tratarán de implantar procesos, IA y mediciones para poder medir y mejorar sus indicadores clave de rendimiento en tiempo real.

La colaboración entre ecosistemas se intensificará el próximo año y en adelante. Diversos partners, desde ISV a hiperescaladores e integradores de sistemas globales (GSI), se están uniendo para desarrollar soluciones conjuntas que respalden los nuevos casos de uso de la Industria 4.0 y ofrezcan mejoras tangibles a los clientes finales. Los GSI tomarán los bloques de construcción de los ISV y los hiperescaladores para permitir despliegues edge industriales más rápidos en plataformas de contenedores Kubernetes (como Red Hat OpenShift).

Los ISV desplegarán cada vez más software como servicio (SaaS) con contenedores para sistemas de ejecución de fabricación (MES, por sus siglas en inglés), la gestión del ciclo de vida de los productos, la arquitectura de sistemas de control (por ejemplo, SCADA), shop floor edge, etc. Con ello se pretende mejorar la disponibilidad, la flexibilidad y reducir los tiempos de inactividad, al tiempo que se mantienen los compromisos de seguridad.

Comunidades como Open Process Automation Forum (OPAF) de The Open Group y la plataforma de datos OSDU, LF Energy, OS-Climate y Catena-X impulsarán aún más los estándares abiertos, lo que contribuirá a mejorar la flexibilidad y la capacidad de elección de las industrias que desarrollan fábricas inteligentes impulsadas por la innovación.

Los proveedores dominantes del stack completo de OT están preparados para ayudar a la industria manufacturera a acelerar la convergencia entre OT y TI de forma inteligente con IA y seguridad incorporadas.

Automatización

Experto: Leslie Hawthorn, Senior Manager, Vertical Community Strategy, Red Hat

“Las tecnologías de automatización se vuelven cada vez más relevantes a la hora de ayudar a las empresas a hacer frente a la creciente demanda de talento TI. Herramientas de código abierto como Ansible pueden proporcionar automatizaciones sencillas pero potentes que pueden ayudar a gestionar entornos complejos de TI y en la nube. El aumento de eficacia que proporcionan estas tecnologías se convierte en una mayor oportunidad para que los desarrolladores de software simplifiquen cada aspecto de la producción de software, desde la codificación hasta el despliegue. Con el tiempo veremos dónde pueden aplicarse estos ciclos creativos para resolver problemas más serios y de una mejor manera. Se trata de una de las partes más prometedoras de la próxima era de la transformación digital.

En el informe Global Tech Outlook de Red Hat se analizan las principales prioridades de financiación para la automatización de las operaciones de TI, incluida la automatización de la seguridad, la automatización de los servicios en la nube y la automatización de la red”.

Automatización II

Experto: Richard Henshall, Senior Manager, Product Management, Red Hat Ansible Automation Platform, Red Hat

Automatización de las operaciones de Día 2

Estamos empezando a ver un mundo post DevOps en el que la ingeniería de plataformas se está convirtiendo en el nuevo método para habilitar a los desarrolladores y a los equipos de ingeniería de confiabilidad del sitio (SER, por sus siglas en inglés). DevOps no ha conseguido lo que prometía cuando se ha aplicado en exceso y las competencias de los empleados siguen siendo escasas. A medida que se acercan tiempos de incertidumbre económica, esto se pone aún más en el punto de mira. ¿Cómo podemos seguir transformándonos y ganando eficiencia? DevOps ayuda a impulsar el cambio y la innovación cuando los recursos adaptables de «Ops» e infraestructura generan la mentalidad de ingeniería de plataforma y cuando las operaciones sirven a los equipos de desarrollo de negocio y aplicaciones. Al mismo tiempo, el autoservicio abstrae la complejidad a medida que las empresas luchan con un gasto opex cloud que sigue aumentando. En cuanto a la automatización, esto llevará a ir más allá del aprovisionamiento y la configuración, y a ampliar la automatización para cubrir todo el ciclo de vida de los servicios de aplicaciones, fusionándose con las capacidades de autoservicio que ofrecen las plataformas modernas. Del mismo modo, debido al clima económico, la automatización deberá aplicarse tanto a los sistemas existentes como a los nuevos sistemas «nativos de la nube»…

Aplicabilidad de IA/ML

GitHub CoPilot, AWS Codewhisperer, Red Hat/IBM Project Wisdom, ChatGPT: estamos asistiendo a una oleada de modelos de procesamiento del lenguaje natural con IA que se aplican a iniciativas tecnológicas para ayudar a los usuarios a acelerar su productividad en lugar de apartarlos del flujo. Estos modelos se adaptan a las actividades de automatización dada su capacidad para extraer y abstraer las complejidades especializadas de las tecnologías y servicios subyacentes. A medida que aumente la importancia de la automatización para los CxO para continuar e impulsar la eficiencia a través de la transformación, todas las herramientas que puedan acelerar a grandes cantidades de usuarios a lo largo de ese camino ganarán mayor tracción y atención en apoyo de los retos económicos.

Automatización de sistema a sistema e inclusión de procesos

Normalmente, la automatización de TI ha sido muy transaccional: haga X, pero haga X 1.000 veces, de forma coherente y repetible. A medida que los usuarios se familiarizan con este método, siguen buscando mejoras. Las tareas básicas de CI/CD, como activar una compilación sin intervención manual, ya no son suficientes. Los profesionales de la automatización necesitan patrones nuevos pero establecidos para el sector, como la automatización basada en eventos, la remediación automática y las funciones de automatización serverless que se publican y ejecutan bajo demanda. Además, vemos una fusión de las capacidades comunes de las tecnologías de automatización de procesos y el mundo de la automatización de TI para aumentar la capacidad de estas funciones, por ejemplo, la lógica de toma de decisiones o la mejora del flujo de trabajo. La complejidad de los sistemas va en aumento, por lo que las soluciones de gestión de TI y el ecosistema de gestión de TI más amplio que los clientes necesitan para controlar esa complejidad deben mejorar para gestionar y mantener lo que en gran medida es un ejercicio aditivo.

Linux

Experto: Brian Exelbierd, Business Strategist for Communities and Developers, Red Hat Enterprise Linux, Red Hat

En 2023 espero que la gran historia de Linux gire en torno al Día 2 y las optimizaciones. No cabe duda de que aparecerán nuevas tecnologías y diversas habilitaciones, pero el gran efecto general se encontrará en los agentes inteligentes que gestionan y reparan las instalaciones. Pasarán de hacer sugerencias a ser proactivos de forma conversacional con nuestros equipos de operaciones. También veremos más empresas que evalúan su gasto en la nube de forma holística para ajustar las operaciones y averiguar si realmente se está ahorrando por no tener un centro de distribución.

2023 será un año difícil para la innovación, ya que las empresas buscan la entrega inmediata de las promesas de innovación, dada la dinámica económica y de empleo prevista.  Creo que es una gran oportunidad para Linux y el código abierto. Esto se debe a que el código abierto se desarrolla por y en asociación directa con muchos usuarios en público, a diferencia de lo que ocurre con el código cerrado que tiene que pasar por múltiples y largas rondas de alfas y betas privadas con los usuarios de forma aislada.

Agentes inteligentes …

Espero que los agentes inteligentes se conviertan en solucionadores de problemas en lugar de limitarse a sugerir correcciones y cambios proactivos para que los operadores humanos los evalúen y ejecuten. Esto nos lleva más allá, por ejemplo, del consejo de ajustar el caché de un disco porque otras bases de datos con su patrón de uso vieron mejoras cuando se hizo esto, a áreas que se parecen más al trabajo proactivo de administración de sistemas que todos desearíamos que nuestros equipos tuvieran tiempo de hacer. Todos nuestros equipos pueden identificar ese disco que todos sabemos que se llenará este trimestre y estos agentes deberían arreglarlo, pero también trabajar en la mala configuración del registro subyacente que lo está llenando.

… que pueden decir …

Los agentes inteligentes deberían empezar a aparecer en la conversación junto a nosotros en 2023. Esta vez su presencia no será como un ruidoso repetidor de registros y un «par de manos» ocasionalmente dirigidas por humanos. En su lugar, espero verlos siendo una parte más natural de la conversación. Sabrán de qué merece la pena hablar en el momento, especialmente de las cosas que necesitan llamar la atención de inmediato, y de lo que debería agruparse para informar más tarde.

… en nuestros stand-ups.

Esa información posterior será más natural en 2023.  Por fin se sentirá como un miembro más del equipo que hace sus comentarios en el stand-up y no como una lista de detalles de bajo nivel que requiere una revisión cuidadosa para entender.  Podrías ser más como «hoy tengo previsto ampliar la partición de disco del servidor X y limpiar los registros anteriores a Z que se han trasladado a nuestra instalación central de registro», en lugar de «el disco del servidor X está al 87%».

El Día 2 sigue siendo importante.

En 2023, la base de datos deberá ser capaz de negociar su propio almacenamiento subyacente directamente con el disco. Lo más importante es que esta negociación se ajuste a las normas de seguridad de los datos y a la filosofía operativa general, sin intervención alguna. Esto será posible gracias a los playbooks del Día 2, que ayudarán a los equipos a mantener los sistemas en funcionamiento sin que la interacción se convierta en la norma. No serán asuntos basados en listas de comprobación que el personal de operaciones seleccione antes de ejecutarlos.  En su lugar, preveo interacciones directas en las que un cambio en, por ejemplo, las opciones de la base de datos, se refleje en las aplicaciones dependientes automáticamente porque el sistema entiende cómo está configurado a un nivel superior.

On-prem sigue siendo fuerte

Ahora todo el mundo aprecia plenamente el valor de los servicios y la posibilidad de adquirirlos según un modelo de consumo. Sin embargo, también estamos empezando a ver lugares en los que este modelo se rompe y se vuelve económicamente inviable. Esto creará espacio para el regreso de aparatos que revivan la filosofía unix de hacer bien una sola cosa.  El beneficio que busco está en cómo estos aparatos tendrán un conocimiento operativo adicional listo que reduzca los costes operativos por debajo de lo que pueden hacer incluso los proveedores de servicios. En lugar de comprar almacenamiento en la nube, tal vez compre un dispositivo de almacenamiento dedicado, auto-mantenido, que participe en discusiones, on-prem.

Partners

Experto: Carine Braun-Heneault, Vice President, Commercial Sales EMEA, Red Hat

Los clientes consumen cada vez más TI empresarial como servicio. El cambio a los servicios en la nube presenta tanto oportunidades como retos para el negocio del canal. Los partners pueden aprovechar esta oportunidad para desarrollar sus habilidades de consultoría y acompañar a los clientes en su viaje hacia la nube. Sin embargo, los servicios gestionados en la nube podrían afectar negativamente a la propia oferta de servicios de un partner. Dado que el negocio on-premise se estabilizará o disminuirá con el tiempo, la competencia aumentará y los partners tendrán que diferenciarse. La gran variedad de partners, como distribuidores, GSI o proveedores de servicios en la nube, requerirá la orientación y el apoyo individuales de los proveedores y de las principales organizaciones de investigación de mercado para ayudarles a adaptar sus estrategias.

Gestión de software

Experto: Steven Huels, senior director, Global Software Engineering at Red Hat

  1. Las empresas se centrarán en gran medida en el proceso mediante el cual gestionan, integran, despliegan y realizan el ciclo de vida de los modelos en producción (también conocido como MLOps) para obtener valor de sus proyectos de IA/ML.
  2. Las empresas buscarán cada vez más aceleradores de software y hardware para sus casos de uso específicos y se enfrentarán al desafío del soporte general del ecosistema para un enfoque integral.
  3. Las empresas invertirán en más soluciones de gobernanza de datos y disponibilidad de datos para permitir que los datos se utilicen en todos los entornos informáticos de forma más fácil y segura.
  4. El enfoque en la seguridad de la cadena de suministro de software para evitar la introducción de amenazas en el software y la rápida identificación y corrección cuando se detecten dichas amenazas se ampliará para incluir también la procedencia y la seguridad de los modelos. Esto se ampliará aún más para centrarse en la transparencia de las decisiones sobre modelos, la auditabilidad de los cambios en estos y el impacto de dichos cambios, y el rendimiento de producción de los modelos.

El auge del Open Source Program Offices

Experto: Leslie Hawthorn, Senior Manager, Vertical Community Strategy, Red Hat

«Durante décadas, las grandes multinacionales tecnológicas han creado Open Source Program Offices (OSPO) para gestionar sus interacciones con los proyectos de código abierto. En los últimos dos años, hemos asistido a un florecimiento de esta estructura para aplicarla en nuevas áreas, en particular en el mundo académico, los servicios financieros y la administración pública, con otros sectores industriales con un interés incipiente en el modelo. Seguiremos viendo cómo nuevos actores de la industria crean OSPO a medida que evolucionan sus estrategias para permitirles aprovechar mejor el código abierto.

Mientras que la industria dispone de un sólido modelo a seguir, no existe una guía para el mundo académico o el sector público. Somos testigos de una vibrante comunidad de profesionales que se reúne para establecer cómo la estructura de OSPO puede crear vías de colaboración e innovación entre instituciones, con pioneros notables como el Trinity College de Dublín, la Comisión Europea y la Organización Mundial de la Salud.

Vamos a ver mucha actividad para dar soporte a la creación y el éxito de las OSPO, con especial énfasis en las colaboraciones a nivel urbano e intraurbano. Uno de mis ejemplos favoritos es Open Cities Czechia, una organización sin ánimo de lucro con sede en Brno que colabora con Red Hat a nivel local en nuestro mayor centro mundial de ingeniería. En colaboración con varias ciudades de la República Checa, Open Cities está creando herramientas de software de código abierto centradas en el ciudadano para diversas tareas dirigidas a la sociedad civil, como la elaboración participativa de presupuestos».

Más información

 


Cargando noticia...