Dos soluciones de edge computing que mejoran la experiencia en línea durante grandes eventos

Descubre cómo el Load Balancer y Application Acceleration de Azion optimizan la experiencia de usuario y escalabilidad durante grandes eventos en línea.

Adriana Cedillo Morales - Technical Researcher
Dos soluciones de edge computing que mejoran la experiencia en línea durante grandes eventos

Megafestivales como Rock in Rio, Lollapalooza, o eventos deportivos como la Copa del Mundo, Olimpiadas, Copa Libertadores o NBA comparten dos características: generan fuertes emociones y aumentan significativamente el tráfico en línea, ya sea en plataformas digitales de transmisión o de venta de boletos.

Tan solo la Copa del Mundo de 2022, en Catar, por ejemplo, fue seguida por 5 mil millones de usuarios a través de diversas plataformas y dispositivos en todo el panorama mediático[1], mientras que el Super Bowl LVI tuvo al menos 99 millones de espectadores[2].

Es en estos momentos cuando el desempeño, la seguridad y la escalabilidad de sus aplicaciones web se ponen a prueba.

Por lo tanto, garantizar una experiencia de usuario fluida, una infraestructura de TI escalable y de alto desempeño, con baja latencia y protección contra amenazas de ciberseguridad, es un desafío para los equipos de DevOps que trabajan detrás de las plataformas de transmisión y las empresas que patrocinan los eventos.

Afortunadamente, hoy contamos con medios efectivos para garantizar la confiabilidad que estos contextos requieren. 

En este post, te presentamos dos soluciones que, juntas, proporcionan todas las herramientas necesarias para mantener tus aplicaciones con un óptimo desempeño y resilientes, inclusive en los momentos más desafiantes. 

Balanceador de carga: distribuye cargas de trabajo para operaciones ininterrumpidas

El balanceo de carga (load balancer) es un método de distribución del tráfico de red entre diferentes servidores y recursos de backend. Al redirigir el tráfico, el balanceador de carga maximiza el desempeño y previene las sobrecargas en los servidores.

Hay varios tipos de balanceadores de carga en el mercado; de la misma manera, los niveles de flexibilidad también varían entre ellos. La flexibilidad aquí se traduce en el método de balanceo más eficaz para sus servidores, mediante el cual se define cómo se distribuirá la carga entre los orígenes.

Load Balancer de Azion, por ejemplo, utiliza un conjunto de algoritmos de distribución para un balanceo de carga adecuado para cada escenario, compuesto por: IP Hash, Least Connections y Round-Robin.

IP Hash

IP Hash es un algoritmo que rastrea las direcciones IP de los usuarios y asocia un origen específico a cada uno de ellos, de modo que sus solicitudes siempre se dirijan al mismo servidor de origen, creando así una asignación constante entre el origen y el dispositivo final.

Least Connections

Least Connections monitoriza las conexiones activas en los orígenes para redirigir la próxima solicitud a aquella que tenga el menor número de conexiones activas en ese momento. 

A medida que las solicitudes consecutivas dejan de ser redirigidas a los orígenes y son atendidas por los servidores más rápidos, el desempeño mejora sustancialmente.

Round-Robin

Round-Robin es un algoritmo que garantiza una distribución uniforme del tráfico entre las fuentes en rotación, sin tener en cuenta el tiempo de respuesta de cada fuente, centrándose en el número de solicitudes. 

Cada origen recibe una carga proporcional al peso asignado en los parámetros de escalonamiento, lo que resulta en un equilibrio consistente incluso si algunas de las fuentes están lentas o acumulan muchas conexiones en paralelo.

Las características de los algoritmos de balanceo de carga mencionados anteriormente resaltan la importancia de la flexibilidad, ya que diferentes situaciones requieren enfoques específicos que las organizaciones deben tener disponibles.

Application Acceleration: mejora el desempeño y la experiencia de usuario

Como un complemento al balanceo de carga, Application Acceleration de Azion tiene la capacidad de ampliar las posibilidades de caché.

Para lograr esto, Application Acceleration habilita la optimización de protocolo en las capas de transmisión y aplicación, que se puede extender a aplicaciones y API, e incluye:

  • Construcción de reglas avanzadas en Rules Engine para las etapas de solicitud y respuesta.
  • Personalización de políticas de caché para contenido dinámico.
  • Configuración de TTL (tiempo de vida del caché) de los datos en caché con valores inferiores a 60 segundos.
  • Soporte y caché de métodos HTTP para las aplicaciones en el edge.

La función Advanced Cache Key habilita la creación de reglas de microcaché (método que acelera el caché de contenido dinámico por períodos más cortos) basadas en cookies o query string. 

Si es necesario, puedes utilizar ambas opciones simultáneamente para definir la segmentación de contenido de tus aplicaciones. Además, es posible habilitar nuevas opciones y configuraciones en Rules Engine para personalizar las reglas de negocios en tus aplicaciones.

Load Balancer y Application Acceleration: la combinación ideal para aplicaciones web más rápidas y resilientes

El contraste entre casos de conciertos cancelados debido a fallos en un sistema de venta de boletos y el éxito de audiencia refleja la importancia de la resiliencia para las aplicaciones web.

En un contexto de Black Friday por ejemplo, cualquier interrupción o minuto de lentitud tiene un impacto en los ingresos e indirectamente desvía el tráfico a sitios web de competidores. Una forma de prepararse para estos grandes eventos es combinar las funcionalidades de Load Balancer con Application Acceleration.

Los balanceadores de carga distribuyen las cargas de trabajo más cerca de los usuarios finales, asegurando que los servidores funcionen con el máximo desempeño. Mientras tanto, las optimizaciones realizadas a través de Application Acceleration reducen la latencia y las métricas de Core Web Vitals, como Largest Contentful Paint (LCP) y First Input Delay (FID).

Conoce cómo Omelete transmitió un evento global sin interrupciones durante 150 horas

Anualmente, Omelete, uno de los sitios web de cultura geek más grandes de Brasil, organiza CCXP (Comic Con Experience), el evento de cultura pop más grande del planeta[3]. En 2020, por primera vez, la CCXP realizó su versión 100 % digital. 

Al igual que los grandes eventos mencionados hasta ahora, CCXP representó desafíos complejos, como el suministro de contenido en vivo con videos de alta definición a 193 países durante 150 horas ininterrumpidas.

Para lograrlo, Omelete configuró sus aplicaciones en la Plataforma de Edge Computing de Azion con diversas reglas de caché a través de Application Acceleration, aplicadas también en sus API, y redireccionamientos sin necesidad de crear código.

Más allá del 100 % de disponibilidad, Omelete proporcionó una experiencia del usuario 15 veces mejor con el suministro de contenido de CCXP Worlds, con más de 10 TB de imágenes cargadas en el edge.

Si deseas obtener más información sobre cómo Azion puede ayudar a gestionar altos aumentos de tráfico y acelerar tus aplicaciones durante sus eventos, entra en contacto con nuestros expertos ahora mismo.

Referencias

[1] Fifa apresenta balanço sobre Copa do Mundo do Catar e apresenta novidades (G1) | [2] By 2026, could U.S. viewership of the World Cup exceed the Super Bowl? (San Diego Union Tribune) | [3] CCXP (Omelete&Co)

mantente actualizado

Suscríbete a nuestro boletín informativo

Recibe las últimas actualizaciones de productos, destacados de eventos y conocimientos de la industria tecnológica directamente en tu bandeja de entrada.