archivo

Archivos diarios: septiembre 15, 2010

Otros datos que se puede extraer del informe “Global Workforce 2010” y que aparecen como una nota de prensa en la web de Towers Watson es que en España un 46% de los empleados no se considera implicado con su trabajo y su empresa y solo un 16% se muestra muy comprometido. Sin embargo, de ese 46%, un 85% no está buscando trabajo, por lo que prefieren la seguridad que les brinda su puesto de trabajo actual, aunque no les motive como para implicarse y comprometerse, que buscar nuevos retos.

En comparación con la Unión Europea, el nivel de poca implicación en el trabajo es un 6% superior que la media y el de fuerte compromiso un 4% inferior.

Uno de los grandes problemas que tenemos en España es que los niveles de productividad laboral dejan mucho que desear y estos datos en los cuales se refleja que prácticamente la mitad de la plantilla de una empresa no está implicada en el trabajo, viene a corroborar este problema.

El usuario busca información o acceso a unos determinados contenidos y es el algoritmo del buscador el que basándose en unos criterios (que no son conocidos en su totalidad en la mayoría de los casos) te devuelve una serie de resultados ordenados que condicionan que unos contenidos puedan ser más accesibles que otros.

¿Es ese funcionamiento neutral? Cuando se busca información y te devuelven unos resultados es necesario establecer un criterio de ordenación de los resultados, que podrán ser más acertados o no, pero están basados generalmente en devolver, al buen entender del algoritmo en cuestión, los resultados en función de su relevancia (de más a menos), basándose principalmente en la atención o importancia que ha sido capaz de generar un contenido y/o el sitio web en el que se aloja.

Es decir, es la propia red la que regula la relevancia de un contenido para una cadena de búsqueda, por lo que sí me parece un comportamiento justo que no privilegia porque sí a unos contenidos sobre otros ya que la web es tan inmensamente gigante como para hacer muy complicado que se beneficien a gran escala unos resultados sobre otros y de hecho en las distintas evoluciones de los algoritmos de los buscadores se intenta mejorar en ese aspecto.

Es cierto que existen las técnicas SEO (Search Engine Optimization) que tienen como objetivo mejorar el posicionamiento de sitios web para determinados patrones de búsqueda en determinados buscadores y que pueden funcionar adecuadamente en muchísimos casos, pero resultaría muy complicado de aplicar a gran escala y que además que el éxito, de alcanzarse, persistiera en el tiempo.

Personalmente confío en la neutralidad de los algoritmos de los buscadores a la hora de seleccionar los resultados de la búsqueda en función de la relevancia que tenga un determinado contenido para el patrón de búsqueda introducido.

No lo consideraría neutral si la práctica habitual fuera que se privilegiasen unos contenidos sobre otros por criterios económicos, políticos, etc… (o que sencilla ni siquiera fueran mostrados a través del buscador), así como que se impidiera o restringiera el acceso a usuarios a determinados contenidos en función de su localización o cualquier otro criterio que resultase injusto.

También conozco gente que piensa que de igual forma que un periódico puede considerar relevantes los contenidos que considere más convenientes y que pueden intervenir factores como por ejemplos los económicos, la línea editorial, etc…, un buscador podría aplicar, si así lo estimasen conveniente sus gestores, perfectamente esos criterios a sus resultados, ya que al fin y al cabo no dejan de ser sitios web que cumplen un determinado cometido y que son dirigidos por empresas que persiguen ganar dinero. Son otras opiniones y que pongo en el artículo para que también se pueda reflexionar sobre ellas.

Para realizar estudios concretos basados en un foto de los datos en un momento dado del tiempo funcionará cualquier tipo de carga de datos en el Datamart, incluso aquellas que requieran una manipulación más o menos pesada de la fuente o fuentes del dato con carácter previo a la realización del proceso ETL.

El problema está cuando se quiere realizar con regularidad cargas de datos en el Datamart procedentes de dichas fuentes. ¿Cuáles son los problemas?:

– El procedimiento de manipulación de la fuente de entrada debe estar perfectamente documentado para que sea reproducible. En función del equipo de personas que lo vaya a realizar deberá estar redactado con menor o mayor nivel de detalle.

– Generalmente este tratamiento artesanal se produce con fuentes de datos inestables, en el sentido de que lo mismo durante un tiempo nos proporcionan la información en un formato y después, sin control por nuestra parte, nos lo ofrecen en otro, lo que obligará a retocar la documentación del procedimiento de carga e incluso el ETL en el caso de que se ofrezcan datos nuevos o varíe el formato de los mismos.

– Se necesitará que las personas que vayan a realizar la carga de manera periódica, tengan esta tarea reflejada en su plan de operación como otra tarea más a realizar.

Salvo que no haya más remedio debido al interés de manejar y explotar la información procedentes de este tipo de fuentes mi recomendación es que se evite trabajar con ellas hasta que se haya encontrado una solución más sencilla que permita un proceso de carga desde la obtención de la información en el origen, esto obligará a realizar una inversión y a esperar algo de más tiempo para poder trabajar con el Datamart ya que será necesario esperar a tener lista la solución, de esta forma se conseguirá ahorrar esfuerzo y se podrá obtener una solución más sostenible en el tiempo.