aruba 360 secure fabric nuevas redes de comunicaciones
aruba 360 secure fabric nuevas redes de comunicaciones

Una de las claves que está arrastrando la digitalización es que el número de datos se incrementa de forma constante. Se trata de un hecho que no sólo afecta al almacenamiento. Esa cantidad de datos cada vez se comparte más, la nube, además, hace que esa transmisión de datos sea también mayor y no sólo eso: los datos que se transmiten son cada vez más pesados. Sin unas redes de comunicación fiables y que admitan grandes capacidades la transformación digital sería imposible. El mundo digital se está forjando y las redes de banda ultra ancha son más necesarias que nunca. En la actualidad hay desplegadas 350 redes gigabit alrededor del mundo y se asume que la red de banda ultra ancha será la piedra angular del mundo inteligente. Pero no sólo enviamos datos, sino que los servicios cobran una mayor relevancia. Por ejemplo, Huawei cree firmemente que el servicio de vídeo es la oportunidad de negocio más importante para los operadores en este momento. De hecho, las compañías de telecomunicaciones con buenos resultados en la industria del vídeo lo consideran clave para impulsar los ingresos medios por usuario, la base de suscriptores y, en general, el negocio de la banda ancha. Para estas empresas el vídeo es mucho más que un servicio de valor añadido. Desde la multinacional china consideran que las necesidades de los consumidores de gigaband han crecido exponencialmente y afirman que la red de banda ultra ancha va a permitir el éxito en las empresas de todo el mundo. Con los esfuerzos de todas las partes implicadas, crearemos un ecosistema sostenible en la industria.

Publicidad

Además, con el incremento del uso de las soluciones y servicios en la nube, la interconectividad se ha convertido en un punto crítico en la prestación de servicios. Tomando especial importancia garantizar la conexión desde/hacia los centros de datos. Desde IECISA afirman que “este incremento en el uso de ancho de banda, está provocando: por un lado, la necesidad de racionalización de costes de las comunicaciones, o en su defecto mejora de las mismas por el mismo coste que antes; y por otro lado, se hace necesario asegurar una mayor calidad de servicio, tanto de seguridad como de disponibilidad y trasferencia, ya que de ellas dependen cada vez más los negocios de nuestros clientes”.

Jorge Arasanz, director técnico de tecnología de redes, Alcatel-Lucent Enterprise, afirma que el incremento del tráfico en las redes sigue creciendo de forma sostenida. Esto tiene, en nuestra opinión, al menos dos impactos:

  • La necesidad de incrementar el ancho de banda disponible y reducir la latencia. Sigue siendo necesario para mejorar la CdE (Calidad de Experiencia) del usuario, pero además, ahora es necesario para ofrecer a los dispositivos IoT las capacidades de red que demandan, quizás con poco ancho de banda por cada dispositivo IoT, con latencia necesariamente contenidas, pero que al incrementar la cantidad de dispositivos, este ancho de banda se suma, llevando las velocidades de los interfaces a su límite. Veremos en los próximos años el incremento a 2,5Gbps/5Gbps/10Gbps para el acceso a la red, con velocidades de conexión a Internet en crecimiento (GPON con interfaces superando los 10G, y por tanto llevando FTTH a nuevos límites). Del mismo modo, veremos el incremento de velocidades en los Cores y Datacenters, pasando a 25 Gigabit Ethernet como puerto por defecto en los servidores, y puerto de 100GE para enlaces troncales. Por último y no menos importante, nuevos estándares en la parte WLAN, así como la posibilidad de liberar bandas de RadioFrecuencia con mayor ancho de banda, traerán también mejoras importantes en el acceso Wireless.

  • La complejidad de tráficos en la red, puede ocasionar problemas de seguridad, que necesariamente deben ser abordados desde el acceso a la red. Veremos cómo las arquitecturas centralizadas (Controladores WLAN, por ejemplo) van perdiendo peso a favor de arquitecturas con control distribuido, que permitan reconocer Aplicaciones a L7, y aplicar mecanismos de reducción de tráfico y seguridad en base a las aplicaciones de los usuarios.

Adaptarse

Con todo esto, parece claro que las redes necesitan adaptarse y evoluionar para poder satisfacer la demanda de unos usuarios y empresas cada vez más demandante de unas mejores infraestruturas de red que les permita una mayor competitividad. Las redes tradicionales no están preparadas para el incremento exponencial del tráfico de datos. En particular en el CPD, con la proliferación de la virtualización, el incremento del tráfico se da sobre todo en lo que se conoce como tráfico Este-Oeste (entre diferentes servidores) y no tanto en el Norte-Sur (entrada-salida del CPD). Hasta un 90% del tráfico dentro del CDP es ahora Este-Oeste. Las arquitecturas antiguas construidas mediante varias capas de acceso, agregación y core no son adecuadas para los nuevos perfiles de tráfico. No basta con ampliar el número de interfaces de los equipos existentes o el aumento de velocidad de dichas interfaces, sino que se necesita un cambio de arquitectura y diseño de la red del centro de datos. Y es que tal y como señala Gonzalo de Antonio, Sales Executive DellEMC Networking “las redes necesitan ser flexibles, fácilmente adaptables, ágiles, eficientes, sencillas de utilizar, escalables, deben proporcionar automatización en las tareas de operación, en los cambios en la configuración, soportar la segmentación en diferentes subredes de clientes o departamentos. Deben ser robustas, seguras y fiables”.

Las organizaciones demandan redes cada vez más flexibles, automáticas, fáciles de operar, pero sobre todo seguras. Para que se puedan satisfacer esas necesidades, Marcello Scanavacca, Director de Ingeniería Preventa de Avaya cree que “tecnologías como Fabric Connect, permiten a las empresas adaptarse a estas demandas, gracias a los conceptos de virtualización de red, que nos da el aislamiento y la micro-segmentación de una forma nativa y la facilidad de gestión. A diferencia de las redes tradicionales basadas en un número enorme de protocolos, tecnologías como Fabric Connect sólo utilizan un único protocolo, y además pueden automatizarse gracias al controlador SDN que incorporan”.

Es decir, la evolución de las redes es una necesidad imperiosa, y aunque muchas veces, los usuarios se quejan de que éstas no lo hacen a la velocidad necesaria, lo cierto es que se trata de uno de los mercados en los que los desarrollos van más rápidos. Por ejemplo, para José Manuel Armada, director de ingeniería de clientes de Interoute, “además de capacidad abundante con las garantías de servicio adecuadas, las redes de última generación están incorporando la automatización en su diseño y explotación, permitiendo, por ejemplo, que la provisión de servicios se lleve a cabo mediante un API o que la red se adapte a las averías de forma imperceptible para el usuario y sin intervención humana en muchos casos”.

Redes antiguas

Otra de las claves radica en la sustitución de las redes antiguas. Son muchos las empresas que a día de hoy todavía trabajan con unas infraestruturas de red del siglo XX, porque sin ir más lejos, la fibra, a pesar de toda la parafernalia de anuncios de las grande operadoras, no llega a todos los lugares. Y no hablamos de pueblos perdidos en el Pirineo o en la meseta castellana. Extender la fibra a todos los lugares no siempre es rentable para las operadoras y por ello, zonas de grandes ciudades españolas, no disfrutan de conectividad a alta velocidad. El problema afecta sobre todo a pequeñas y medianas empresas, que ven cómo conectar con alguno de sus proveedores cuesta un mundo, o enviar un archivo de 100 Mb, puede costar toda una mañana. Así que la pregunta es clara: ¿Cómo sustituir estas redes desfasadas? Desde Dell-EMC creen que una de las claves hay que buscarlas en las soluciones abiertas, también para el mundo de las redes. “Nuestro planteamiento consiste en construir sobre lo existente, intentar aprovechar al máximo la infraestructura que haya desplegada y que todavía sea válida. Dependiendo del entorno del cliente, se pueden empezar a introducir nuevas soluciones, arquitecturas, aplicaciones, etc., integrándose con lo existente, proporcionando funcionalidades definidas por software en una aproximación de crecer según se necesite”, asegura su portavoz.

Desde IECISA consideran que “el principal problema de la sustitución de las redes actuales, como no puede ser de otra manera es impacto económico. Las compañías suelen tener periodos más elevados de amortización en lo que se refiere a las redes de datos, pero esto no es óbice para realizar un nuevo diseño en las infraestructuras tanto a nivel de SDDC, SDS y como no en SDN, como solución que mejor se adapta al modelo de Datacenter Infinito de Nueva Generación”. Y en la misma línea de opinión se encuentra Alberto Pérez, BIGTEC BU Manager de Exclusive Networks quien asegura que “como todo, progresivamente. Según lo que prioricemos en nuestra corporación (gestión VS rendimiento), empezaremos por los core para mejorar diseños globales, o bien, por los ToR (Top of the Rack) para dar mayor capacidad de gestión de incidencias cerca de los servidores. Asimismo, podría incluso ser inteligente dar el primer salto hacia un SDN de overlay que ‘enmascare’ nuestras carencias, mejore la gestión y permita una evolución progresiva sin afectar a los servicios publicados”.

Retos

El mundo del networking tiene ante sí una ingente cantidad de retos. El sector de las TIC está en un proceso continuo de cambio y evolución. Pero se trabaja de forma incansabe para poder afrontarlos. Una de las empresas que actualemnte lidera el mercado mundial, sobre todo en lo que a I+D se refiere es Huawei. Para esta multinacional es imprescindible continuar invirtiendo en I+D para adaptar su portfolio de tecnologías a los nuevos requisitos tecnológicos. Por ello, sus planes en el corto plazo se centran en invertir en soluciones Cloud, en el desarrollo del Internet de las Cosas (IoT), servicios de vídeo 4K, arquitectura de red y ultra banda ancha. “En los próximos años vamos a asistir al surgimiento de todo tipo de dispositivos, que servirán como punto de entrada a un nuevo mundo inteligente. Por supuesto, mantendremos nuestro compromiso con la conectividad y las inversiones en 5G, para hacer posible su despliegue en 2020. Desde 2009 y hasta 2018 Huawei habrá invertido 600 millones de dólares en la innovación e investigación de esta tecnología. Las redes 5G permitirán 100.000 millones de conexiones, una latencia de un milisegundo y una velocidad superior de más de 10Gbps, lo que supone una velocidad entre 10 y 100 veces mayor respecto a la velocidad actual de la red 4G. Asimismo, las tecnologías cloud transformarán la industria radicalmente y en 2025 el 100% de las empresas y el 85% de sus aplicaciones estarán en la nube. Para afrontar esta situación, Huawei ha establecido una estrategia cloud centrada en el consumidor, la innovación y las infraestructuras y está construyendo, en colaboración con sus partners, un ecosistema cloud. Además, contamos con 5 centros de I+D en soluciones cloud”, afirman los directivos de la compañía.

Otro de los retos se encuentra en el centro de datos. En el nuevo Centro de Datos Definido por Software (SDDC), la agilidad, eficiencia, sencillez de uso y escalabilidad están hoy en día bien conseguidos en el ámbito del cómputo y del almacenamiento, pero no tanto en la parte de red. Pero esto tiene una consecuuencia, tal y como asegura el portavoz de Dell-EMC y es que “no es posible adaptar el centro de datos al nuevo paradigma de entrega de aplicaciones en el nuevo formato ‘cloud’ nativo con una red tradicional. La red debe adaptarse y poder ‘definirse por software’ para ser ágil, escalable, adaptable”.

Finalmente nos encontramos con un tercer reto que es el que imponen las redes definidas por software o SDN. Para Alejandro Cadarso, Business Development for Wireless & IT Security Solutions en EinzelNet los retos más importantes que deben resolver serían los siguientes:

  • Simplificar la configuración y la provisión de funcionalidades tales como QoS y seguridad.

  • Implementación y posibilidad de ampliación de red más sencilla.

  • Utilizar mejor los recursos de red.

  • Habilitar aplicaciones para que soliciten dinámicamente los servicios desde la red.

Seguridad

Tras los últimos incidentes acaecidos a nivel mundial, está claro que la seguridad pasa a cobrar un elemento fundamental. Posiblemente estos ataques haya posibillitado que todo el mundo, usuarios, organizaciones y empresas, tomen conciencia de la importancia de la seguridad. Y tener redes seguras es un elemento indipensable. Basta recordar que el último ataque de Ransomware se propagó a través de las intranets de empresas y organismos. Y esto va a ir a más, porque el número de dispositivos conectados aumenta sin freno.

La enorme conectividad que va a traer consigo la nueva era del Internet de las Cosas (según Gartner, Inc. En 2020 habrá 20.800 millones de dispositivos conectados) conllevará un incremento de la apertura y la complejidad de las redes.

La llegada de este nuevo mundo, en el que todo será inteligente y todo estará conectado, tendrá como consecuencia el surgimiento de importantes desafíos de seguridad, ya que cualquier riesgo en un punto único podrá poner en peligro toda la red. Además, el IoT involucra una gran cantidad de dispositivos conectados que generan, envían y reciben grandes volúmenes de datos vinculados con personas, lo que deriva en la monitorización permanente de las actividades de las personas a través de muchos dispositivos distintos. Es posible que esta monitorización genere diversos requisitos acerca de la privacidad y la protección de los datos personales.

En este sentido, entre las principales amenazas de seguridad que conllevará el IoT, destacan el robo de contraseñas de banco; la falsificación de identidad; el uso de imágenes personales en nuestro hogar; el control del vehículo inteligente, y el desabastecimiento de centrales de energía.

La realidad es que las amenazas de seguridad son interminables. Y uno de los principales problemas que entraña la IoT es que -debido a la conectividad en red de varios dispositivos electrónicos (nevera, coche, sistema de climatización del hogar, app del banco o del médico…)- si se produce una brecha en una de las partes, dependiendo del tipo de amenaza, ésta puede escalar hasta controlar el resto de dispositivos. De hecho, una encuesta de Forrester realizada en organizaciones de todo el mundo reveló que el 47 % de las organizaciones industriales que usan o tienen planificado usar IoT ya habían experimentado problemas de seguridad en sus aplicaciones industriales. El libro blanco –‘Creación de un mundo IoT fiable y gestionado’- desarrollado conjuntamente por Huawei e Incibe, analiza el desarrollo de tecnologías de seguridad de IoT, propone el uso de mecanismos de seguridad de extremo a extremo de múltiples capas y resume las prácticas de seguridad correspondientes. De hecho, la seguridad de la IoT puede garantizarse solamente si la cadena industrial en su totalidad trabaja en conjunto. Huawei propone que los gobiernos, las organizaciones internacionales y las industrias se unan para desarrollar la seguridad de la IoT y que se esfuercen más por orientar políticas, promulgar leyes y reglamentos, establecer normas, innovar tecnologías nuevas y desarrollar ecosistemas industriales”.

Para e portavoz de EnzelNet, “la seguridad total para las redes no es posible, pero es cierto que es necesario minimizar los riesgos de seguridad. Existen beneficios operacionales y de costes gracias a implementar SDN/SDDCs, pero únicamente en ciertas áreas y tal vez uno de los principales riesgos sea la incertidumbre en materia de seguridad. En cuanto al Internet de las cosas, creo que además de la seguridad común a toda infraestructura y comunicaciones IT existe un reto muy importante relativo al papel de la gestión de la identidad. Ya no se trata simplemente de identificar a las personas y administrar su acceso a diferentes tipos de datos. En el mundo de IoT, la gestión de identidades debe ser capaz de identificar dispositivos, sensores, monitores y gestionar su acceso a datos sensibles y no sensibles”.

A medida que aumentan los titulares de la prensa sobre brechas de seguridad, robos de información, ataques de ransomware, como el de la semana pasada y encima a escala mundial, los profesionales de TI coinciden en que la segmentación de las redes, es decir, la capacidad de crear unos carriles seguros a lo largo de toda la red para aplicaciones o servicios, es una medida esencial para reducir los riesgos de seguridad. Sin embargo, un reciente estudio de la empresa Vera Quest Research, solicitado por Avaya, concluía que son pocas las empresas que han puesto en marcha una estrategia de segmentación; sólo uno de cada cuatro reconoce que lo hace.

El dilema con el que la mayoría de las empresas se enfrenta es que, mientras que la mayor parte del gasto en seguridad se dirige a defender el perímetro rígido de la red, este perímetro ha evolucionado hacia un perímetro de tipo “omnipresente”, debido al efecto de la computación en la nube, la externalización y la tecnología BYOD. Para el portavoz de Avaya, “a nadie sorprende que todos los puntos de entrada en ese perímetro preocupen a los profesionales de las TIC, pero las tres áreas percibidas como de mayor riesgo son: los correos electrónicos de los empleados, las conexiones inalámbricas y los dispositivos de los empleados. Desde Avaya adoptamos un enfoque ofreciendo una solución de segmentación de inicio a fin que incluye tres funcionalidades sinérgicas: hiper segmentación, ocultamiento nativo y elasticidad automatizada”.

Por su parte, Jorge Arasanz de Alcatel-Lucent cree que “Las redes deben mejorar, para ofrecer de forma nativa, mecanismos de contención de tráfico, mediante contenedores-IoT, empleando tecnología SPB (802.1ab Shortest Path Bridging), de forma que cada servicio IoT sea un contenedor estanco, en el que el tráfico no podrá pasar entre Contenedores, reduciendo enormemente el riesgo de propagación de ataques. Además, es imposibe que la aplicación de la seguridad deba seguir haciéndose de forma centralizada. Simplemente no es posible escalar las soluciones centralizadas a miles de dispositivos. Se impone el cambio hacia una solución de control de seguridad distribuida, con gestión centralizada, pero con aplicación de la seguridad de forma distribuida”.

Redes definidas por Software (SDN)

Una de las propuestas para mejorar la calidad de las redes son las denominadas redes definidas por software o SDN. Tal y como señalan en Cisco, estas redes permiten a las organizaciones acelerar la implementación y la distribución de aplicaciones reduciendo drásticamente los costos de TI mediante la automatización del flujo de trabajo basada en políticas. La tecnología SDN habilita arquitecturas de nube mediante distribución y movilidad de aplicaciones de manera automatizada, a pedido y a escala. Las SDN incrementan los beneficios de la virtualización del centro de datos, ya que aumentan la flexibilidad y la utilización de recursos y reducen los gastos generales y los costos de infraestructura.

Para lograr estos objetivos empresariales, las SDN convergen la administración de los servicios de red y aplicaciones en plataformas de coordinación centralizadas y ampliables que pueden automatizar el aprovisionamiento y la configuración de toda la infraestructura. Políticas de TI centralizadas comunes unifican grupos y flujos de trabajo de TI dispares. El resultado es una infraestructura moderna que puede distribuir nuevas aplicaciones y servicios en minutos, en vez de días o semanas como antes.

Las SDN proporcionan velocidad y agilidad al implementar nuevas aplicaciones y servicios empresariales. La flexibilidad, las políticas y la programabilidad son las señas de identidad de las soluciones SDN de Cisco, con una plataforma capaz de manejar las necesidades más exigentes de la red, tanto presentes como futuras.

Como señala el portavoz de Dell-EMC, “SDN junto con Open Networking, es fundamental para proporcionar la agilidad, automatización, securización, eficiencia y escalabilidad del centro de datos y las aplicaciones nuevas y tradicionales. Las soluciones de red que se implementen deben ser por tanto abiertas, basadas en estándares, no propietarias, interoperables con lo existente, estar preparadas para el futuro. Esta es la visión de Dell EMC y nuestra innovación en Networking está totalmente orientada a SDN y Open Networking, habilitando las nuevas tendencias del mercado y con la protección de la inversión como criterio principal en nuestro desarrollo de producto. En enero de 2014, Dell anunció el soporte de un nuevo paradigma de conmutación denominado ‘Open Networking’, que cambia radicalmente el concepto clásico del switch al desagregar el HW del SW, permitiendo ejecutar sistemas operativos de terceros sobre plataformas abiertas y estándar de conmutación, de igual manera que las arquitecturas X86 revolucionaron el mercado de la computación hace unos años. Esta apuesta por las soluciones abiertas, agnósticas y basadas en estándares para aportar valor, capacidad de elección, flexibilidad, reducción de costes y protección de la inversión a nuestros clientes es lo que nos ha posicionado como el fabricante más visionario de la industria”. Por su parte en IECISA aseguran que “con el auge de la integración continua en proyectos y servicios, en los cuales todos los elementos IT se provisionan a través de SW, las redes definidas por software son indispensables en cualquier definición de una nueva arquitectura. Las principales ventajas, son la inmediatez a la hora de implementar arquitecturas complejas, así como sus posibles evoluciones o cambios a lo largo del tiempo. Además, esto repercute a la hora de su gestión, control y cuantificación de costes cuando se incorpora en la globalidad de un proyecto”.

Finalmente el portavoz de Exclusive Networks señala que “las SDN Resultan un player crítico. En entornos donde el diseño de red nunca se pudo hacer desde cero, que se han heredado complejas estructuras difíciles de eliminar y que lastran la provisión y gestión de nuestros servicios, cada vez más dinámicos y exigentes, la única manera de avanzar con el ritmo que los mercados internacionales comandan, será el ‘aislarnos’ del peso de dicho lastre, para poder aumentar nuestra agilidad y profesionalidad. Esto es gracias a dichas ventajas, en donde el perfilado de configuraciones de red y su vinculación a los servicios de capa 7, vía OpenStack, vía orquestadores o a través de cualquier otro método de automatización, resultarán totalmente necesarias. Así, además, evitaremos cargar con el enorme peso de una gestión excesivamente manual de nuestra compleja red”.

Data Center definido por software

Como señalábamos un poco más arriba, el data center juega un papel fundamental en la evolución de las redes. Es algo que todavía se encuentra en una fase incipiente, pero empieza a haber pequeños proyectos que permiten valorar su viabilidad. “Nosotros creemos que es el único camino y que ya está teniendo éxito. Debido a los plazos que se piden para la provisión de infraestructuras y servicios en los proyectos que estamos ejecutando actualmente es vital la automatización e integración de todas las infraestructuras, los propios clientes se sorprenden de lo que se pueden hacer ahora. Nuestros equipos IT Automation están desarrollando soluciones SDDC que una vez implementadas superan con creces las expectativas iniciales expuestas por los CIOs o CEOs. Es por esto que desde IECISA estamos plenamente convencidos de su éxito, apostando en ello con especialización de nuestros equipos de trabajo en las nuevas soluciones de DEVOPS y su integración en el entorno IT, entendiendo el entorno IT cualquier solución tanto CLOUD como virtualizada”, afirman desde IECISA.

El punto de vista opuesto parte de Alberto Pérez, BIGTEC BU Manager, de Exlusive Networks. En opinión de este directivo, “el data center definido por software no va a tener éxito a corto plazo, pero tampoco a largo, si no queremos sufrir un desfase evolutivo en nuestro status tecnológico insalvable, que nos dejaría en una muy mala posición competitiva en mercados internacionales. Por otro lado, sí creo que puede haber un ‘boom’ más ágil en el ámbito SD-WAN (SDN para redes distribuidas y sedes remotas), con vistas a optimizar las inversiones en MPLS y proveedores externos, si bien, requiere mucho esfuerzo de evangelización y mentalidades más abiertas”.

La promesa del 5G

Pero si hay una tecnología de la que todo el mundo habla esa no es otra que el 5G. Ya se han hecho numerosas pruebas y son muchas las empresas que están trabajando con ella. Al igual que ocurre en otros mercados, Huawei también está poniendo especial énfasis en ella. La compañía mantiene un compromiso con la conectividad y las inversiones en 5G, para hacer posible su despliegue en un futuro próximo. Desde 2009 y hasta 2018, habrá invertido 600 millones de dólares en la innovación e investigación de esta tecnología. Las redes 5G permitirán 100.000 millones de conexiones, una latencia de un milisegundo y una velocidad superior de más de 10Gbps, lo que supone una velocidad entre 10 y 100 veces mayor respecto a la velocidad actual de la red 4G.

La compañía está centrando sus inversiones principalmente en tres áreas: el uso del espectro, la arquitectura de red y los modelos de negocio. En primer lugar, el 5G ofrecerá soporte de acceso al espectro completo, incluyendo Banda C, onda milimétrica y espectro actual. Además, continuará cooperando en gran parte con operadores para continuar innovando en la aplicación de espectro y maximizar la eficiencia de red. En segundo lugar, la compañía pondrá a punto la arquitectura de red para todas las redes All- Cloud para separar las aplicaciones de la arquitectura y así asegurar redes flexibles y con miras al futuro. Por último, para hacer que la transformación digital sea un éxito, es esencial la colaboración entre las diferentes industrias. En este sentido, Huawei ha comenzado a fortalecer la colaboración con compañías líder de cada industria y continuará haciéndolo en el futuro. De esta manera, continuarán incubando nuevas aplicaciones y explorando nuevos modelos de negocio para impulsar el desarrollo del 5G.

Y es que 5G, tal y como opinan desde Dell-EMC, “está muy ligada a un cambio radical en las tecnologías que dan los servicios, en este caso liderado por el paradigma de NFV. 5G va a permitir a las operadoras a suministrar muchos más servicios y se espera un crecimiento muy elevado en el tráfico que usen 5G como redes de acceso. Este gran cambio impacta radicalmente en cómo están diseñadas las redes, tanto en capacidad como en virtualización para poderse integrar con los entornos NFV y los nuevos modelos de gestión y prestación de servicios”.