archivo

Archivos Mensuales: agosto 2010

Personalmente cada vez veo más clara la utilidad del software como servicio como medio para conseguir un ahorro real de costes para cualquier organización (digo cualquiera, incluso las que se dedican a los servicios relacionados con el desarrollo de software) y todavía veo con más nitidez su utilidad para las PYMES pese a que haya estudios que indican que su grado penetración en las mismas está siendo peor que en empresas de mayor tamaño.

El software como servicio no pretende “sacar” de la empresa todo lo que son los servicios informáticos, habrá casos donde eso sea más factible que en otros, dependiendo de a lo que se dedique la empresa, su infraestructura, presupuestos, etc…, sino que plantea que la gestión de algunos servicios (correo electrónico, servidores, software ofimático, aplicaciones, etc…) se haga desde fuera (incluso en la nube, ¿por qué no?), es decir, la empresa paga por recibir el servicio y el proveedor lo proporciona, pudiendo establecerse acuerdos de nivel de servicio que garanticen para el cliente una calidad acorde a la inversión que se está realizando.

¿Por qué gastar en infraestructura informática cuando ese no es el objetivo principal de mi negocio?, ¿por qué invertir tiempo y esfuerzo en algo que no me va a reportar ningún valor añadido a si lo tengo contratado por fuera?, ¿por qué no estudiar cuánto puedo ahorrarme?, ¿por qué no invertir lo que ahorro en marketing, en mejorar mis productos o en I+D?.

El principal problema que se plantea al apostar por el software como servicio es la pérdida de control directo en el servicio que se contrata, es decir, en los datos, en su disponibilidad, etc…, se tiende a pensar que ese pérdida de control puede ser negativa, cuando en realidad es todo lo contrario, ya que no se pierde el control de nada (con la firma de los acuerdos de confidencialidad de la información y con el establecimiento de cláusulas que establezcan contraprestaciones en el caso de que se determinados riesgos, como por ejemplo, la pérdida de datos o accesos no permitidos a los mismos, terminen sucediendo) y sabremos qué servicio nos tienen que proporcionar (mediante el establecimiento de los acuerdos de nivel de servicio apropiados).

Que nosotros gestionemos directamente la información y el software no garantiza que esté mejor tratado que si esa gestión la realiza una empresa especializada en ello (es más, lo más probable es que al ser ellos especialistas lo hagan mejor que nosotros, ya que su negocio dependerá de lo bien que lo hagan y además, problemas de pérdidas o de seguridad de los datos o de un mal servicio, pueden acabar perfectamente con ellos). Comprender y asimilar esto puede proporcionar una ventaja significativa respecto a la competencia.

Anuncios

Se ha liberado la primera versión oficial de Redmine 1.0. Personalmente me alegro mucho de que este proyecto siga evolucionando ya que es la opción de gestión de proyectos que hemos implantado en mi organización y con bastante éxito y satisfacción entre el resto de responsables de proyecto.

No fue idea mía implantar esta herramienta ya que fue una recomendación, pero lo importante, como he repetido en tantas ocasiones no es que a uno se le ocurra la idea sino que aunque sea de otro, el rendimiento que se le pueda sacar a la misma sea positivo.

Yo recomiendo el uso de este software ya que es tremendamente sencillo y potente y sobre todo por la capacidad de evolución que tiene que lo irá dotando progresivamente de cada vez más utilidades y además permite personalizar determinadas funcionalidades a través de plugins ya sean propios o desarrollados por terceros (los más significativos se van implementando dentro del núcleo del producto, como por ejemplo la posibilidad de definir subtareas que ya no requiere la utilización de plugins).

Para ver las novedades de esta versión os dejo un par de enlaces (de la página oficial de Redmine), uno referido a la última release candidate y otro a las novedades de la 1.0.1 respecto a la versión candidata:

Redmine 1.0.0 Release Candidate

Redmine 1.0.1

Mark Gibbs es un importante empresario, divulgador en el terreno de las TIC y consultor de importantes compañías, teniendo una experiencia de más de 25 años en este negocio.

En febrero de 2006 publicó la siguiente cita como parte de un artículo en la revista Network World en el que hablaba sobre una presentación no del todo exitosa de Microsoft en el Consumer Electronics Show en Las Vegas:

“No importa lo estupendamente que haya ido la demo en los ensayos, cuando lo haces frente a tu audiencia la probabilidad de que sea una presentación existosa es inversamente proporcional al número de personas mirando, elevado a la cantidad de dinero que hay en juego”

Mark Gibbs como bien comenta en su artículo hace una cita que perfectamente podría pasar a formar parte del compendio de la Ley de Murphy y detrás de esa frase y de lo que le pasó al gigante de Redmond podemos sacar dos mensajes claros:

– Que a todos nos puede suceder ese problema.

– Que como es posible que pase hay que tomar las debidas precauciones para reducir o mitigar el impacto.

A mi, en el contexto de mi trabajo, me ha pasado y no solo una vez y me volverá a pasar. Me gusta hacer demos de los productos en directo ya sea en el entorno de pruebas o de producción porque tengo interés en que los usuarios y los directores usuarios vean que lo que les estoy enseñando no es cartón piedra, me gusta que vean que se está trabajando ya que el proceso de desarrollo una vez finalizado el análisis se vuelve demasiado opaco para ellos y prefiero que si salen deficiencias lo hagan antes que el producto esté entregado (por supuesto que si se hubieran detectado o tenido en cuenta en el análisis, mejor, pero hay siempre que tener un resquicio de flexibilidad). Por supuesto, cuando el producto no está terminado o si está terminado pero todavía está en fase de pruebas les recalco el estado en el que se encuentra y que es posible que nos encontremos con incidencias en la presentación que se está realizando.

El peligro de enseñar el programa en funcionamiento es que pueden existir diversas contingencias que te puedan fastidiar la presentación, por eso siempre hay que llevar un plan B si no es posible continuar o realizar la presentación en línea. Ese plan suele ser tenerla preparada en diapositivas (pero bien preparada, no unas cuantas capturas de pantallas para salir del paso).

Evidentemente no me juego lo que se jugaba Microsoft en aquella presentación, pero supongo que salvando las enormes y kilómetricas diferencias buscaban con ese tipo de demostraciones llamar la atención de la audiencia y enseñar que detrás del producto no solo hay palabras sino también hechos.

No siempre hago presentaciones enseñando el programa directamente, depende de la audiencia y del propósito de la reunión, a veces es mucho más productivo trabajar directamente con diapositivas ya que te permite ir más al grano y no tener que pasar por funcionalidades del programa que no tienen por qué interesarles a tus interlocutores.

Muchos de nosotros hacemos planes, nos planteamos objetivos, proyectos, los analizamos meticulosamente, incluso nos deleitamos viviendo en nuestra imaginación el cuento de la lechera.

¿Cuál es el problema? Ninguno si lo que nos gusta es soñar, pero desde luego que simplemente soñando ninguna de esas metas se va conseguir.

Lo más difícil de todo es dar el primer paso, decidirse a intentar hacer realidad lo que uno piensa. Cuántos planes hemos fastidiado por no intentarlo siquiera, por el miedo de ese primer paso.

Una vez dado el primer paso se puede fracasar, claro que sí, nada asegura el éxito, pero estoy seguro que este llega, primero tras intentarlo y si no sale, intentándolo otra vez, y si no, otra vez y así los fracasos nos darán el conocimiento y experiencia necesario para alcanzar el éxito.

No hay que confundir éxito con dinero. Se puede tener éxito sin hacerse rico, todo dependerá de lo que cada uno busque.

Evidentemente cuanto más difícil sea la empresa más complicado será conseguirla, no hay camino fácil, nadie regalará nada (por lo menos no se puede tener esa expectativa) y para llegar al objetivo tendremos que dar nosotros cada uno de los pasos que lleven a él, incluido el primero.

Leo en Nación Red un artículo que recoge la defensa que hace Verizon contra el contenido de un editorial del periódico USA Today (Nuestra visión sobre la neutralidad de la red: no colocar peajes en la superautopista de la información) criticando la propuesta de Google y la empresa de telecomunicaciones como base para la regulación de la neutralidad de la red.

La crítica se centra en que no terminan de ver la propuesta como algo favorable a la neutralidad de la red, sino como todo lo contrario, es decir, como la base de un Internet distinto al actual donde los proveedores de determinados contenidos y las operadores de telecomunicaciones establezcan las reglas del juego priorizando contenidos y su accesibilidad a determinados colectivos de usuarios basándose en criterios económicos, de manera que determinados contenidos sean accesibles si sus proveedores pasan por caja y en función de lo que paguen se priorizará su tráfico o no, lo mismo podría ser extensible a los usuarios donde en función de los que paguen podrán acceder a todo o a parte del pastel. El funcionamiento de Internet sería, por tanto equiparable en cierto sentido al de la televisión de pago.

En el editorial, USA Today hace especial hincapié en que a la banda ancha inalámbrica ni siquiera se le da un cierto margen de duda, quedando abierto, a través de la propuesta, que se puedan quebrantar los principios de la neutralidad de la red.

Los proveedores de banda ancha inalámbrica comentan que la propia competencia del sector, donde los usuarios pueden elegir la opción que prefieren autorregulará el principio de neutralidad, en el sentido de que los operadores no pueden poner muchas trabas al acceso a los contenidos por parte de los usuarios porque de lo contrario éstos buscarán mayoritariamente la opción que les permita una mayor libertad de acceso a los contenidos.

Tiene una cierta coherencia lo que indican los proveedores, sin embargo, tal y como dice el editorial, no existen tantas opciones para los usuarios y después está el asunto de que determinados tipos de terminales móviles estén ligados (al menos temporalmente) a determinadas operadores. Además, ¿quién dice que determinadas operadoras no pueden llegar a acuerdos sobre los contenidos que proporcionan?, si realmente se confía en que el mercado autorregule, ¿por qué no han aplicado en la banda ancha tradicional la misma estrategia?, o al revés, ¿por qué no han sentado en la banda ancha inalámbrica unas ciertas bases a favor de la neutralidad de la red de la misma forma que lo han hecho con la banda ancha tradicional?.

Por otro lado, el editorial indica que un escenario de falta de neutralidad en la red afectaría a la capacidad de innovación de los creadores de tecnologías, servicios y contenidos, sobre todo en el ámbito de la banda ancha inalámbrica donde se prevé un importante crecimiento en los próximos años, ya que en lugar de poder trabajar en un escenario neutral, se tendría probablemente que trabajar bajo el ala de uno o varios operadores.

Por último, el editorial cierra comentando que si realmente no se establecieran los cimientos para conseguir la neutralidad de la red, Internet ya no volvería a ser lo que es, lo cual supondría una pérdida para cada uno de nosotros.

En su defensa Verizon acude a la parte de la propuesta donde habla, efectivamente, de un Internet donde el tráfico sea libre sin la existencia de una priorización de unos contenidos sobre otros, pero claro, no menciona que la banda ancha inalámbrica queda exenta de todo esto y que en la banda ancha tradicional también habría excepciones para servicios no Internet (sin especificar quiénes iban a calificar un servicio de esa forma y cuál iba a ser el criterio a aplicar).

Precisamente el problema de la propuesta de Google y Verizon es que detrás de unas buenas palabras y unas buenas intenciones en relación a la neutralidad de la red, dejan la puerta abierta (por lo menos de lo que se deduce de su propuesta) a la ruptura de dicha neutralidad (y en el caso de la banda ancha inalámbrica además regalan las llaves y la cerradura).

Mis reflexiones sobre este asunto se pueden consultar en este artículo que publiqué hace unos días.

– Todos los competidores tienen éxitos y fracasos, el problema es que generalmente nos quedamos con sus éxitos, sin tener en cuenta los fracasos y eso hace que parezcan más terribles de lo que realmente son.

– Como consecuencia de lo anterior se les proporciona una ventaja muy grande, ya que se compite pensando que se tienen todas las de perder, lo cual merma la calidad de nuestras proposiciones o simplemente ni siquiera se presenta batalla.

Por todo lo anterior, no solo hay que intentar ganar a los competidores sino que hay que intentar vencer el lastre que suponen nuestras propias barreras. Una vez que desaparece esa carga y se entra en el terreno de juego seguro que se pueden conseguir resultados inesperados.

En este artículo quiero poner un ejemplo que puede ser interesante para darnos cuenta de que realmente lo difícil no son los objetivos o los competidores sino convencernos a nosotros mismos de que es posible.

Supongamos que somos jugadores de fútbol y no conocemos cómo es el portero del equipo rival y se plantean las siguientes situaciones:

1) El entrenador nos enseña un video de una hora de duración con las mejores paradas del portero.

2) El entrenador nos enseña un video de una hora de duración con una recopilación de los goles que le han metido al portero (priorizando los más tontos y fáciles de parar).

Sabiendo que en ambos videos serían reales, solo que uno recoge los mejores momentos y otro los peores. ¿Cuál de las dos situaciones favorecería más a nuestro equipo, aún sabiendo que enseñando un video u otro el portero sería el mismo?.