SDN. Software-defined Networking

Hablamos de Internet, de la nube, de redes privadas virtuales, de redes de área local y los entendemos y asimilamos, generalmente, sin mucho problema, pudiendo incluso explicar a otras personas qué nos ofrecen y cómo funcionan, siempre y cuando no entremos en mucho detalle, porque es ahí donde las cosas empiezan a complicarse, y de qué manera, porque no es nada sencillo explicar cómo un grupo de personas pueden jugar en red, como tus correos electrónicos llegan sus destinatarios o cómo se sincronizan tus carpetas con tu gestor de almacenamiento en la nube favorito, sobre todo si empiezas a adentrarte en el proceloso mundo del TCP/IP, sus diferentes capas y las infraestructuras software y hardware que la soportan o lo que es lo mismo, a cómo viaja esa información entre un origen y un destino.

Los expertos y profesionales en redes de comunicaciones son los que podrán explicarte con mayor profundidad eso que no vemos, si bien, para ellos la complejidad también se incrementa conforme seguimos descendiendo en el nivel de detalle ya que no para de aumentar el número de tecnologías y soluciones que aparecen, así como el número de servicios a todos los niveles que se pretenden ofrecer en una red de comunicaciones.

Para ellos existen “piezas” que utilizan, que saben como interconectar, configurar y administrar pero que son como cajas negras limitadas a las especificaciones del fabricante, que si bien cubren determinados estándares, generalmente cada una de ellas requiere unos conocimientos específicos no solo para extraerle el mayor provecho posible, sino para hacerlas funcionar de la manera que necesitamos y nos interesa.

A medida que es mayor la red con la que se trabaja, intervienen un mayor número de elementos software y hardware heterogéneos, que se van a ir actualizando con el tiempo de manera no homogénea (y probablemente no organizada), lo cual sumado a que el tráfico no tiene por qué ser plano (pudiéndose establecer determinados niveles de calidad del servicio) hace que las tareas de administración se compliquen sobre manera.

Uno de esos elementos son los conmutadores que son dispositivos o elementos de infraestructura de red cuya función es interconectar diferentes segmentos de red o múltiples subredes para que funcionen de manera integrada como una sola.

Su función principal es la recepción y envío de paquetes, haciendo uso de su capacidad de almacenamiento y aprendizaje de direcciones, de manera que todo paquete dirigido a un mismo destino seguirá una misma trayectoria y será tratado de la misma manera. Cuanto mayor sea el nivel de funciones que se requieran del conmutador mayor será su coste teniendo en cuenta que en este caso, los upgrades no se solucionan generalmente con “parches” sino con la adquisición de nueva infraestructura.

Por tanto, podemos considerar que existe una gestión/administración distribuida dependiente de cada uno de esos conmutadores y de sus limitaciones o lo que es lo mismo, dependiente de un conjunto de cajas negras que tienen que ser reemplazadas en el caso de que se requiera un nivel de “inteligencia” que vaya más allá de las que tiene definidas, con el coste que eso supone (si alguna de las cajas negras es un componente software, además de estar limitada a la propia funcionalidad que ofrece, salvo que sea un desarrollo a medida o sea una solución de software libre, será necesario montar un mecanismo para tratar de automatizar en lo posible la configuración de las reglas definidas).

Las redes definidas por software tienen como objetivo simplificar la gestión/administración de las redes, centralizándola e independizándola de las soluciones específicas para el direccionamiento, es decir, se pretende establecer dos planos diferenciando lo que es el plano de control que es donde se toman decisiones sobre el destino del tráfico y lo que es el plano de datos que es la infraestructura que hace el “trabajo sucio” de enviar el tráfico al destino seleccionado.

Es decir, seguimos teniendo cajas negras pero se extrae de ellas la mayor parte de su “inteligencia” y se integran en un único punto, que se denomina controlador.

Además de las posibilidades que este paradigma presenta en cuanto a la flexibilidad en la implementación y mejora de servicios, que se gestionará en de manera centralizada, tenemos su independencia respecto al proveedor de cada uno de los conmutadores de la red, lo que ofrece un marco de trabajo apropiado para un entorno de red que debe ser escalable y adaptarse a la demanda existente en cada momento.

Tenemos dos planos: inteligencia y músculo, se necesita, por tanto, un mecanismo de comunicación entre ambos y que sea un estándar. Con este fin surge OpenFlow promovido por la ONF (Open Networking Foundation)

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s

A %d blogueros les gusta esto: