miércoles, 28 de julio de 2010

Gestión de incidencias es una inversión, ISO 27000

Todos los procesos y procedimientos presentan fallos. Las organizaciones o empresas, cualquiera que sea su negocio, no son ajenas a esta realidad; sobretodo, cuando los volúmenes de información son tan densos que las soluciones tradicionales a las incidencias y la propia gestión humana se vuelven insuficientes para solventar dichos problemas. Sin embargo, bajo los fallos subyace la oportunidad: los procesos son susceptibles de mejorar.
Afortunadamente, las nuevas tecnologías y, en especial, desarrollos orientados a la resolución de dificultades reales de la gestión de incidencias nos ayudan en el arduo, pero necesario camino hacia la calidad en todos los procesos organizativos.


Una adecuada gestión de incidencias es una inversión, no un gasto, ya que sin duda, conseguirá ahorros significativos en costes en orden de tiempo, satisfacción de clientes y, por supuesto, ahorro económico al minimizar el impacto de los fallos y a mediano plazo, incluso, puede ayudarnos a erradicar errores repetitivos. En otras palabras: gestionar las incidencias nos permite hacer mejor nuestro trabajo.


Las empresas han de pensar pues, en que sus clientes, tanto internos como externos, tengan a disposición herramientas que les permitan encontrarse con un soporte sólido y una calidad satisfactoria en aquello que esperan de la organización.


Por estas razones, Yerbabuena Software presenta su nuevo producto, HUGO, o Herramienta Única de Gestión Operativa, que cuenta ya con el respaldo de una implementación satisfactoria en una empresa financiera de gran envergadura como Caja Sur; siendo, no obstante, perfectamente funcional y adaptable a cualquier tipo de organización.


HUGO es un producto yerbabueno que nace de la fusión entre Nuxeo (gestión documental) e ITracker (gestión de incidencias). El objetivo es documentar los errores para descubrir el modo de no volver a cometerlos.

Pero ¿Qué diferencia a HUGO de otros productos del mercado?
HUGO es fácil de aprender a manejar para cualquier empleado de la empresa, gracias a su entorno gráfico intuitivo, dinámico y atractivo. Además, debido a que nuestra herramienta ha sido desarrollada con énfasis en la flexibilidad (para conseguir mayor libertad y maleabilidad a la hora de adaptarse a las necesidades particulares de cada empresa) cuenta con interesantes características tales como la segmentación de usuarios, flujos de trabajo y filtros personalizables. HUGO va a permitir a sus usuarios tener un control en tiempo real de distintos tipos de procesos internos y externos de la empresa. Nuestra Herramienta de Gestión Operativa ha sido concebida bajo los preceptos de la metodología ITIL que no es otra cosa que la búsqueda del uso de mejores prácticas.


Otra característica esencial de HUGO es que permite la aplicación de unSistema de Validación de Procesos (SVP); es decir: conocer nuestros procesos y documentar la mejor manera de hacer las cosas con el fin de generar procesos y/o servicios o productos de alta calidad.
Pero aún hay más, HUGO presenta funcionalidades interesantísimas como:
  • Paradas de reloj (que permiten detener el tiempo de resolución de una incidencia mientras nos encontramos a la espera de, por ejemplo, información sin la que no se puede proceder)
  • Alimentación vía e-mail (los usuarios pueden registrar incidencias con independencia de su ubicación geográfica)
  • Alertas generales (permiten la priorización de incidencias graves)
  • Integración con centralitas
  • Módulo de informes que permite la visualización de informes en distintos formatos. (Informes SLA)
  • Gestión de Inventarios entre otras.
Sin duda, HUGO puede hacer mucho por su empresa, no dude en solicitarnos información más completa; ¡cualquiera de nuestros técnicos estará encantado de atenderlo!

martes, 27 de julio de 2010

La solución ERP de Openbravo llegó a los 1,7 millones de descargas

La solución ERP de software libre y entorno web cuenta ya con presencia en más de 50 países conectados por su red global de partners

La solución ERP de Openbravo en entorno web para las pequeñas y medianas empresas ha superado los 1,7 millones de descargas. Durante el primer semestre de 2010, la cifra mensual de nuevas descargas de su solución ERP ha aumentado, llegando a acumular un incremento del 320% en tan sólo cinco meses.

  También ha experimentado un incremento en la demanda Openbravo Professional Edition, la versión comercial de la solución ERP de Openbravo que permite a las pequeñas y medianas empresas disponer a un coste inferior de las ventajas de la solución en software libre líder del mercado, como por ejemplo funcionalidad exclusiva, soporte profesional, garantías y acceso a actualizaciones y mejoras certificadas.

Los módulos y extensiones de la solución ERP, disponibles a través de Openbravo Exchange, han registrado asimismo un incremento. Openbravo Exchange es el marketplace de soluciones y servicios para entornos productivos, diseñados como extensiones de Openbravo ERP. En la actualidad cuenta con 160 módulos diferentes, un 40% más que a principios del año 2010. Algunos de los módulos más populares son soluciones específicas para industrias, como por ejemplo la gestión de hoteles o la moda, además de extensiones funcionales para la gestión de ventas o las transacciones “inter-compañía”.

lunes, 26 de julio de 2010

Tendencias, novedades y soluciones en impresión


Ahorro de tinta y energía, menos cables, mayor velocidad y hasta cuidado del planeta son aspectos para tener en cuenta a la hora de elegir los equipos que mejor se acomodan a su empresa.

La competencia entre los fabricantes de impresoras, años atrás, se centraba en la resolución -la 'guerra de los píxeles'-, la velocidad y la calidad fotográfica.
Hoy, el escenario de la batalla es mucho más complejo, pero a la vez más beneficioso para los usuarios -tanto de empresas como de hogar- pues cuentan con muchas más opciones para escoger (que van desde la impresora de inyección de tinta, hasta la láser y la de tinta sólida). Incluso, esa puja representa ventajas también para el planeta.
Desde hace un tiempo vienen ganando fuerza la 'impresión verde', la popularización de los multifuncionales, la mayor versatilidad de los equipos y, paradójicamente, la mayor facilidad de uso.
Además, se ha evidenciado un cambio en el paradigma de la venta de impresoras a la de soluciones de gestión documental -para la impresión en empresas-.
En Colombia, los principales fabricantes tienen en su portafolio equipos y soluciones que responden a estas tendencias mundiales.
Por otro lado, cuando una empresa planea la compra de equipos de impresión, sin importar su tamaño o número de empleados, debe plantearse algunas preguntas: ¿cuántas páginas, en promedio, imprime al mes?, ¿qué tan importante es imprimir a color?, ¿tiene espacio suficiente para añadir a la impresora un escáner, una fotocopiadora y un fax?, ¿se justifica invertir más en un multifuncional?, ¿cuántos empleados utilizarán el mismo equipo?
De las respuestas se desprenderá la tecnología que deba escoger, teniendo opciones como inyección para impresión en bajos volúmenes y con mucho color, láser y tinta sólida para altos volúmenes en blanco y negro o color. Además, la clase de equipo, donde aparecen las impresoras o multifuncionales.
Otro aspecto clave es la velocidad, cuando se requiere imprimir en altos volúmenes.
Y desde luego, el software incorporado, en caso que se quiera contar con opciones avanzadas de impresión, así como si se requieren varios usuarios para el mismo equipo o si se necesita dar un paso hacia el concepto de gestión documental.
A continuación, usted podrá conocer algunos de los equipos y productos que se enmarcan en las tendencias antes mencionadas y que buscan responder a los requerimientos de empresas y organizaciones.
Preservando el medio ambiente
La preocupación por la forma como la impresión afecta el medio ambiente va mucho más allá de la tala de árboles que se utilizan para producir papel. Los fabricantes trabajan en equipos que consuman menos energía y en tintas y suministros que produzcan menos residuos tóxicos.
En este campo, la tinta sólida -creada hace casi 20 años, pero que hace poco llegó a la madurez- se presenta como la opción más ecológica, pues ofrece la misma calidad de la impresión láser, pero genera un 90 por ciento menos de desperdicio, consume menos energía y la tinta no es tóxica.
Esta tecnología de Xerox está disponible en impresoras y multifuncionales de la línea Phaser, para pequeñas y medianas empresas, y en los equipos ColorQube 9200, de alto rendimiento, para las organizaciones con mayores demandas de impresión.
Uno de los elementos más contaminantes de la industria de la impresión es el tóner láser, que exige más de 3 litros de petróleo para su fabricación. Cada año, los toners generan cientos de miles de toneladas de plástico, que se descompone en 1.000 años.
Si bien los fabricantes de equipos no estimulan el uso de toners remanufacturados porque pueden estimular la falsificación, y la mala calidad puede dañar los equipos, compañías como Imation han incursionado en este campo y garantizan calidad.
Imation presentó recientemente en Colombia sus toners Earthwise, compatibles con impresoras, multifuncionales y copiadoras de varias marcas como HP y Canon, certificados con normas ISO 9001 (de calidad) e ISO 14001 (ambiental). La compañía los califica como ecológicos porque reducen las emisiones de carbono y cada año ahorran 40.000 toneladas de plástico.
Cada vez más rápido
La velocidad de impresión sigue siendo uno de los campos que más motivan a los fabricantes, y por supuesto a las empresas que necesitan imprimir altos volúmenes.
Esta velocidad se ha medido tanto en la cantidad de páginas impresas por minuto (PPM) como por el tiempo que tarda un equipo en cargar un documento e imprimir su primera página, pero una nueva norma, el estándar internacional ISO 24734, mide la velocidad de impresión en imágenes por minuto (IPM).
Con esta nueva norma, que por lo pronto sólo opera para impresoras de inyección de tinta -para las otras tecnologías la medición por PPM sigue vigente-, los compradores serán los más beneficiados porque tendrán claridad sobre la verdadera velocidad de los equipos.
Algunos fabricantes también han manifestado su satisfacción, porque creen que sí tienen las mayores velocidades y sus rivales no podrán acomodar sus cifras.
En este terreno, las impresoras láser más veloces de fabricantes como HP, Xerox y Lexmark prometen velocidades de hasta 200 PPM en impresión monocromática y más de 100 en impresión a color, mientras que en tinta sólida la impresora más veloz es la ColorQube 9200, que alcanza las 85 PPM, y en inyección de tinta Canon, HP, Epson y otros fabricantes rondan las 50 PPM.
Cables, un 'mal necesario' que desaparece
Hasta ahora, los cables habían representado un 'mal necesario' en las empresas, pues las pocas opciones de impresión inalámbrica se enfocaban en impresoras para el hogar. Pero esto ha cambiado.
Xerox, por ejemplo, incluye en algunos de sus equipos soluciones de impresión vía Internet, que permiten a empleados autorizados enviar sus documentos a través de su celular o un computador desde cualquier parte del mundo.
Así mismo, la impresión vía Wi-Fi sigue avanzando y fabricantes como Canon ya tienen impresoras y multifuncionales para pequeñas oficinas con esta función. Las Pixma MX350 y MX340, anunciadas recientemente, son impresoras de bajo costo orientadas a las empresas que pueden imprimir documentos y fotografías enviados desde portátiles, iPhones, iPods y otros dispositivos con conexión Wi-Fi.

El tiempo

sábado, 24 de julio de 2010

India desarrolló computador portátil con pantalla táctil más barato del mundo (35 dolares)

 El equipo cuesta apenas 35 dólares y sus desarrolladores planean disminuir el valor hasta los 10 dólares.

El ministro de Desarollo de Recursos Humanos de India, Kapil Sibal, presentó esta semana la máquina de bajo costo que fue diseñado para estudiantes, y dijo que su ministerio comenzó negociaciones con fabricantes globales para iniciar su producción masiva.

"Hemos alcanzado una etapa (de desarrollo) en la que hoy, la tarjeta madre, su chip, el procesador, la conectividad, todos ellos cuestan de manera acumulativa cerca de 35 dólares, incluida la memoria, la pantalla, todo", dijo Sibal en una conferencia de prensa.

El indicó que el computador contiene navegadores de Internet, un lector de archivos en formato PDF y soporte informático para videoconferencias, pero su hardware fue creado con la suficiente flexibilidad para incorporar nuevos componentes de acuerdo con las necesidades del usuario.
Sibal explicó que el computador, que funciona con base en el sistema operativo Linux, sería introducido en instituciones de educación superior desde el 2011, pero que se buscaría reducir aún más su precio, primero a 20 dólares y finalmente a 10 dólares.
El aparato fue desarrollado por equipos de investigación en los dos principales institutos tecnológicos de India, el Instituto Indio de Tecnología y el Instituto Indio de Ciencia.
India gasta cerca de un 3 por ciento de su prepuesto anual en educación escolar y ha mejorado sus tasas de alfabetismo por encima del 64 por ciento de su población de 1.200 millones de habitantes.
Sin embargo, algunos reportes han mostrado que muchos estudiantes tienen dificultades para leer o escribir, y la mayor parte de las escuelas estatales tiene instalaciones inadecuadas.
NUEVA DELHI
Reuters

miércoles, 21 de julio de 2010

Amazon ya vende más e-books que libros de tapa dura




Los días del papel están quedándose atrás. Una de las señales: Amazon vende más e-books para Kindle que libros de tapa dura. Durante el segundo trimestre del año, vendieron 143 e-books por cada 100 libros, el mes pasado la diferencia ya estaba en 180 contra 100. Claramente la reciente baja en el precio del e-reader (que reportan ha triplicado sus ventas), y el lanzamiento de aplicaciones para móviles hicieron que se multiplicaran rápidamente las ventas de los libros digitales. El propio Jeff Bezos está asombrado: «es sorprendente si consideramos que estamos vendiendo libros físicos desde hace 15 años, y libros para Kindle hace sólo 33 meses».

La tienda de Kindle tiene en venta más de 630 mil libros, y otros 1,8 millones de e-books libres de copyright, y su costo es bastante menor que el de los libros impresos, que en promedio cuestan unos 26 dólares, contra alrededor de 10 dólares por e-book. Adempas, como los libros digitales representan prácticamente ningún costo de producción para sus editores, imaginen las ganancias que generan.

Yo amo los libros, me gusta la sensación al tacto de pasar páginas verdaderas, y el momento de cerrarlos lentamente cuando llegué al final. Pero también me parece fantástico poder tener una biblioteca completa en un aparatejo portátil (y virtualmente), las posibilidades que esto brinda, y la facilidad obtener títulos nuevos de inmediato con sólo unos clics en Amazon (o App Store, o donde sea, esto tiene que ver con la lectura digital en general, independientemente del dispositivo).


También me gustan los discos, pero hace mucho tiempo que no compro un CD, un disco de vinilo, o cualquier formato físico que contenga música. ¿Los libros irán hacia ese destino? Este anuncio parece ser un momento crucial hacia ese futuro. Aunque no creo que estemos ante la muerte inminente de los libros impresos ni mucho menos, porque mientras la gente los siga comprando (y el mercado sigue siendo inmenso contra el de los e-books) van a seguir existiendo. Pero a su vez, mientras la tecnología nos permita deshacernos de los formatos físicos (dándole un respiro a los árboles de paso), yo me apunto a acompañar este cambio, total por un rato van a seguir existiendo las librerías de usados para hacernos de algún ejemplar que queramos conservar, sin alimentar una industria que eventualmente se va a extinguir.

lunes, 19 de julio de 2010

Los 10 avances del futuro, según la revista 'Technology Review'

La revista 'Technology Review', especializada en el ámbito tecnológico y científico, realiza cada año un listado de las diez tecnologías emergentes más importantes del momento y que se espera tengan un impacto fuerte en el tipo de productos y servicios que saldrán al mercado.

La selección la realiza el equipo directivo de la publicación quien, para la decisión, se plantea la pregunta: ¿esta tecnología cambiará el mundo y cuál podría ser su incidencia en múltiples aspectos? Algunas de las tendencias que destaca Technology Review tienen que ver con asuntos que impactan a la gran mayoría, como mejores biocombustibles, celdas solares más eficientes y el concreto ecológico.

Otros adelantos están relacionados con la forma en la que la gente utiliza la tecnología, con pantallas 3D para dispositivos móviles, aplicaciones para consultar información en Internet y la llamada televisión social.

A continuación un vistazo a estos diez avances que es muy probable que sean noticia próximamente.

1- Imágenes de 2D a 3D sin gafas

Julien Flack, de la compañía Dynamyx Digital Depth, ha trabajado por más de una década en un software que convierte las imágenes en dos dimensiones para que se puedan visualizar en tres dimensiones. Esto, según Flack, evitaría el uso de gafas especiales que son las que le permiten a los ojos recibir las diferentes señales para que el cerebro las procese y se vea en 3D.

La tecnología, que incluso podría utilizarse en los televisores 3D que se venden en la actualidad, está diseñada para que tenga mayor impacto en dispositivos móviles como consolas de videojuegos, reproductores multimedia y teléfonos celulares como el Samsung W960, que ya se lanzó en Corea del Sur.

2- Implantes tecnológicos

Tal parece que de los laboratorios del ingeniero biomédico Fiorenzo Omenetto vendrá una nueva generación de dispositivos electrónicos que se podrán implantar en el cuerpo sin que esto genere alguna reacción adversa. De esta manera, los aparatos podrían monitorear signos vitales, hacer análisis de sangre y proveer información importante de la persona para que médicos especialistas la utilicen.

La clave del éxito de los implantes creados por Omenetto es que son de seda, material que sometido a ciertos procesos se convierte en biocompatible.

3- Búsquedas en tiempo real

La pregunta que muchos se hacen con la cantidad de información que se genera a través de las redes sociales como Twitter y Facebook es de qué manera se puede rastrear dicho contenido para que las personas puedan consultarlo en cualquier instante y, lo más importante, justo en el momento en el que se genera.

El gigante de Internet Google cuenta con un grupo de trabajo que pretende hallar la forma de incorporar nuevos datos a los resultados de búsqueda en tiempo real. Esto generaría una nueva manera de consultar información y de aprovechar el potencial que tiene la Red.

4- Células madre renovadas para curar enfermedades

James Thomsons, de la empresa Cellular Dynamics, espera que con el nuevo tipo de células madre creado por su compañía mejore el tratamiento de algunas enfermedades y cambie la forma en la que se desarrollan y prueban medicamentos.

Con ellas, los científicos pueden crear células madre de células adultas pertenecientes a personas con ciertas enfermedades, como diabetes, y hacer que estas identifiquen las células que han sido dañadas por la enfermedad. Así los investigadores tienen la capacidad de ver el problema y rastrear el proceso molecular que lo ha generado.

5- Anticuerpos de doble acción

La compañía Genentech creó dos anticuerpos, Herceptin y Avastin, que han sido exitosos en la lucha contra el cáncer. El primero de ellos bloquea uno de los componentes que acelera un 20 por ciento el desarrollo de tumores en el seno.

Según la empresa estadounidense, con estos anticuerpos que utilizan una tecnología llamada de doble acción, se podría resolver el gran problema asociado a las medicinas de la quimioterapia: que las células cancerígenas se vuelvan resistentes y muten para evitar las acciones de los medicamentos.

6- Concreto ecológico

Producir una tonelada métrica de cemento para concreto genera entre 650 y 920 kilogramos de dióxido de carbono; así mismo, se calcula que las 2.800 toneladas métricas de cemento que se produjeron en el 2009 en todo el mundo aportaron el 5 por ciento de todas las emisiones de dióxido de carbono.

Para solucionarlo, el científico Mikolaos Vlasopoulos de la empresa inglesa Novacem, tiene en sus manos la receta para eliminar esas emisiones, con un cemento que absorbe más dióxido de carbono cuando se está fabricando, hasta un máximo de 100 kilogramos por tonelada.

7- Energía solar

Joule Biotechnologies diseñó un nuevo sistema que convierte el dióxido de carbono en combustible. La empresa creó microorganismos fotosintéticos que utilizan la energía solar para convertir de manera eficiente el dióxido de carbono en etanol o diésel.

Las pruebas de Noubar Afeyan, fundador de la compañía, estiman que el proceso puede lograr cien veces más combustible por hectárea que el que se obtiene con el maíz para producir etanol.

8- Celdas solares eficientes

La física Kylie Catchpole ideó un nuevo tipo de celdas solares delgadas que hacen más eficiente la captura de la energía del sol. El resultado son láminas delgadas basadas en la energía fotovoltaica, que convierte entre el 8 y el 12 por ciento de la luz solar que reciben en electricidad.

9- A aprovechar la información en la red

Aunque muchas compañías están promoviendo que la gente almacene la información en Internet en lugar de su computador, la gran falla que se ha visto es la ausencia de aplicaciones que permitan aprovechar dichos servicios.

En los próximos meses es posible que comiencen a aparecer programas que les permitan a empresas e individuos sacar más provecho del contenido que guardan en la Red.

10- Televisión social

El objetivo de Marie-José Montpetit, científica invitada del laboratorio de investigaciones del MIT, es hacer que la experiencia de ver televisión sea diferente para los usuarios y que estos puedan compartir ideas y discutir sobre sus gustos, algo que orientaría a otros sobre programas interesantes para apreciar.

Según Montpetit, esto ayudaría a las cadenas de TV y a las productoras a crear audiencias más fieles, a la vez que les permitiría proveer contenidos personalizados de acuerdo con las preferencias de cada usuario.

El tiempo Julio 19 de 2010

Google compra Metaweb para darle un toque semántico a sus búsquedas

LES RECOMIENDO ESTE VIDEO!!



Google hace muy bien lo que hace, y cuando no lo hace del todo bien, va y compra alguna compañía que ya lo esté haciendo. A la lista startups interesantes que se suman a Google, hoy se agrega Metaweb, una compañía líder en web semántica. Son quienes están detrás de Freebase, una inmensa base de datos de millones de cosas, de la cual Google ya venía usando servicios para su sitio de noticias.



Si bien la incorporación de resultados de búsqueda inteligentes no es algo nuevo en Google, ya que si buscamos conversiones de medidas, hacemos operaciones matemáticas, o queremos saber cuando cumple años Lady Gaga, y otros datos exactos de este tipo, tendremos el resultado allí mismo en las opciones de búsqueda, sin siquiera tener que de hecho “buscar” entre páginas y páginas. Ahora imagínense si Google sumara posibilidades semánticas a su búsqueda de palabras claves, analizando el contexto y no sólo las palabras, y podamos pedirle cosas como “novelas de ciencia ficción que fueron llevadas al cine” o “cantidad de episodios de Los Simpsons en los que sale Sideshow Bob”. Como dicen en su blog sobre esta unión “estas son preguntas difíciles, y hemos adquirido Metaweb porque creemos que trabajando juntos podremos ser capaces de proporcionar mejores respuestas”.


Cuando empecé a escuchar sobre eso de la web semántica hace ya algunos años me pareció algo interesante, y aunque en ese momento, y todavía ahora, se lo ve como algo lejano y bastante complicado de realizar, de a poco se ha estado avanzando cada vez más con sitios que aplican búsquedas más avanzadas que las simples palabras claves. Está Wolfram Alpha que el año pasado se presentó como una posible revolución, también está Powerset, que fue comprado por Microsoft hace dos años, y Bing se ha beneficiado de ello para sus búsquedas.

Que ahora Google esté queriendo incorporar mas búsquedas inteligentes a su motor me entusiasma, porque aunque a algunos no les guste su algoritmo, y la competencia lo esté alcanzando, sigue siendo el más usado, porque es excelente y yo creo que sigue mejorando día a día. Les dejo el video que usa Metaweb para explicar lo que hacen, para que empiecen a imaginarse lo que puede llegar a salir de su nueva relación con Google.

viernes, 16 de julio de 2010

Kodak y MedCo Data lanzan un sistema de captura de historiales médicos

El expediente médico electrónico permitirá una mejor atención a los pacientes y mayor seguridad a los datos

El sistema de captura lanzado utiliza el software KODAK Capture Pro instalado los diferentes escáneres de la compañía permitirá transferir automáticamente los datos al sistema de Seguridad Social (HIPAA) y almacenados en MedCo Data Vault, a donde se puede acceder según las necesidades de los médicos.

Una de las principales dificultades en los proyectos de digitalización de expedientes médicos son lo variados que pueden ser los documentos a escanear, desde formularios hasta imágenes radiológicas, por lo que es necesario que los escáneres cuenten con la calidad necesaria para obtener imágenes definidas y que éstas puedan generarse en los diferentes formatos legales para integrarlos al Expediente Médico Electrónico.

http://graphics.kodak.com/docimaging/US/en/About_Us/News/2010/100712a.htm?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+KodakDocImagingNews+%28Kodak+Document+Imaging+Newsroom%29&utm_content=Google+Reader

 

 

jueves, 15 de julio de 2010

Seguridad Informatica en el estado

La semana pasada fue noticia el delito de unos funcionarios de tránsito que montaron una oficina paralela para exonerar de multas a infractores por unas mordidas y que fueron detectados "después de revisar en la base de datos de la entidad", según este diario.
Para los expertos en seguridad informática, aun para los que trabajan en sistemas sin ser especialistas en el tema, es obvio que se deben revisar periódicamente las bitácoras que dejan las bases de datos y en las que quedan registradas todas las actividades que se realizan en ellas. Para eso existen.
No tiene que ser muy difícil afirmar que en las entidades del Estado no se deben de revisar las bitácoras de bases de datos en forma rigurosa y frecuente. Seguramente, en algunas no se realiza esta tarea. En las bases de datos, por naturaleza muy sensibles, como las de la Dian, esto es posible que se haga, pero esta y otras pocas deben ser la excepción.
No estoy seguro de cuál sea la entidad que tenga que ordenar el requerimiento de que las empresas estatales se homologuen en ISO 27001, estándar que especifica lo que se debe hacer para implementar y mantener un sistema de administración de la seguridad de la información, pero es algo que hay que llevar a cabo.
Mientras tanto, valdría la pena evaluar cuáles son las políticas de seguridad informática implantadas en las entidades gubernamentales, para ver su eficiencia y cómo se administran y se obliga a utilizarlas. Las palabras claves para ingresar a los sistemas del Gobierno deberían ser por lo menos de 13 caracteres alfanuméricos, con la obligación de incluir caracteres especiales, números, mayúsculas y minúsculas. Ya me imagino claves de funcionarios públicos con acceso a sistemas de información importantes, iguales al nombre de alguien conocido (un hijo o hija o el nombre de su equipo de fútbol preferido). Prefiero no pensar en el período de vigencia de esas claves.

Si son de usuarios sensibles, lo ideal es que se cambien cada mes; si no, mínimo cada tres meses. Dejar los computadores con acceso abierto a la aplicación mientras toman tinto o van a almorzar no debe de ser raro en los empleados públicos, cuando esto tendría que estar terminantemente prohibido y aun ser causa para la terminación del contrato.
Estos son algunos ejemplos de algo que atenta contra la seguridad de la información en entidades estatales o privadas. Debe haber conciencia de que protegerla es fundamental y de que para esto hay que implementar políticas y estas tener uñas que permitan tomar decisiones disciplinarias cuando sean violadas. El Estado tiene que dar ejemplo en esta y muchas otras áreas, y no lo está haciendo.

El tiempo ,Guillermo Santos Calderon

Revise sus ojos antes de comprar una TV en 3D

El 3-D nos asalta. Primero fue su incursión en el cine, y ahora llega a nuestros hogares gracias a las nuevas televisiones que dan imágenes en tercera dimensión. Bueno, antes de que haga una inversión en uno de estos novedosos aparatos, le tengo un pequeño consejo: revise que no padezca problemas de visión binocular, a menos que quiera tirar a la basura su dinero con un aparato que no podrá usar.



La organización inglesa Eyecare Trust calcular que cerca del 12% de la población mundial tiene problemas con la visión binocular. Tan sólo en Reino Unido, se estima que la cifra alcanza los seis millones de personas. Sin la visión binocular, nos sería imposible apreciar las imágenes en tercera dimensión, ya que el 3-D funciona cuando nuestros ojos trabajan de forma coordinada para encontrar la profundidad de campo adecuada.


La visión binocular permite que ambos ojos enfoquen el mismo objeto. Al enviar la señal al cerebro, éste añade características como la altura o la profundidad. De acuerdo con Eyecare Trust, mucha gente desconoce que posee problemas de este tipo, ya sea porque sus ojos tratan de compensar el defecto, o porque tienen otro padecimiento (miopía o astigmatismo) que lo enmascaran.

Sin duda, la mejor manera de no fallar al comprar un dispositivo de tecnología 3-D es probarlo antes de adquirirlo (¡hola, sentido común!). Si se experimentan problemas para percibir la profundidad, entonces sabremos que probablemente padezcamos algún defecto de la visión binocular. Es importante atenderlo porque enfermedades de la vista como la ambliopía pueden afectar la habilidad para leer bien y producir una mayor fatiga visual cuando se trabaja en el ordenador.

Chile, primer país en garantizar la neutralidad en la red por ley

La neutralidad en la red está de enhorabuena, al menos en Chile, ya que se ha convertido en el primer país del mundo en garantizar por ley la neutralidad en la red impidiendo a los ISP interferir, discriminar o entorpecer de cualquier forma los contenidos, aplicaciones o servicios. La propuesta fue realizada en 2007 y finalmente se aprobó ayer por la Cámara de Diputados.


Además de esto introduce la posibilidad de habilitar un control parental por parte de los ISP si sus clientes lo solicitan. Esto es, si un padre quiere evitar que desde su conexión su hijo pueda acceder a determinadas páginas, tiene la posibilidad de llamar a su proveedor y solicitar el bloqueo de dichas páginas. Esto es algo que puede resultar algo chocante al principio por lo que busca esta Ley, pero que sin embargo, en lugar de dar el poder a los proveedores e instituciones, lo pone en manos del usuario final.


Según ha comentado Felipe Morandé, las modificaciones aprobadas por la Cámara de Diputados buscan transparentar los servicios y proteger al usuario obligando al proveedor a entregar al cliente una serie de datos para identificar correctamente el servicio que ha contratado, con el fin de generar una competencia más abierta y fomentar la entrada de nuevos proveedores.

Es una gran noticia para la gente chilena que demuestra la forma de ver Internet que tienen sus políticos, muy positiva y favorable para el usuario, muy al contrario de lo que estamos acostumbrados -desafortunadamente- con gobiernos que buscan medidas restrictivas en la red, con un ACTA que está de moda durante las últimas semanas que traería la famosa ley de tres avisos por descargar contenidos con derechos de autor antes de cortar la conexión al usuario, poniendo a los ISP como policías de la red, obligándoles a monitorizar el tráfico que se mueve por sus redes para vigilando lo que descargan sus usuarios. Algo que esperemos que no llegue a hacerse realidad y que el resto de países sigan los pasos que han tomado en Chile, aunque realmente en estos momentos parece complicado.

lunes, 5 de julio de 2010

La seguridad en la protección de datos en la empresa debe mirar hacia adentro. Data Leakage Prevention (DLP)


Diferentes informes realizados por empresas de seguridad apuntan que las Pymes son las empresas que menos recursos asignan a la protección de la seguridad en los datos mientras que las grandes corporaciones cuentan con diferentes capas de protección.
Es importante remarcar que las empresas se preocupan mucho de la protección frente a agentes externos mientras que dedican pocos recursos a la protección contra elementos de la propia organización.
Riesgos:
  • Externos
  • Internos
  • Causas accidentales
Externos
  • Ataques desde el exterior (hackers)
  • Colaboradores con acceso a infraestructura
  • Robos físicos de equipos o soportes.
Internos
Todo tipo de dispositivos que permitan copiar información desde el interior de la compañía pueden constituir una amenaza. Algunos riesgos:
  • Grabadoras
  • Pendrives
  • Smartphones y dispositivos similares con tarjetas de expansión.
  • Unidades de cinta
  • Bases de datos distribuidas
  • Acceso masivo a datos
Accidentales
  • Incendios
  • Fallos de hardware
  • Subidas de tensión
  • Envíos de email por error con información sensible.
  • Borrados accidentales
Las políticas de seguridad implantadas en las compañías deben anticiparse a los riesgos enumerados anteriormente implementando entre otras las siguientes medidas:
  • Físicas
    • Caja seguridad ignífugas almacenamiento copias seguridad
    • Ventilación servidores y equipos críticos
    • Seguridad acceso a CPD’s
    • Alarmas anti-incendios
    • Desconexión o eliminación de elementos que permitan realizar copias.
    • Hardware
      • Firewall
      • SAI
      • Estabilizadores de tensión
      • Discos espejo
      • Appliances de seguridad
    • Software
      • Soluciones antivirus, anti-spyware, anti hackers, anti pishing, etc.
      • Copias de seguridad in company
      • Copias de seguridad online
      • Cifrado de datos (EFS). Este permitiría por ejemplo que si un empleado copia datos en una unidad pendrive estos fueran ilegibles una vez copiados
      • Limitación de acceso a datos a empleados. Bases de datos online, no distribuidas.
    • Jurídicas (contractuales)
      • Acuerdos de confidencialidad tanto con empleados como con colaboradores que dispongan de acceso a datos sensibles.

Google va por la distribución digital de libros independientes

El mercado de los e-books está que arde. Con Amazon y Apple compitiendo ceja a ceja por el dominio de los libros electrónicos, Google ha optado por mover sus fichas también y ha firmado un acuerdo con la Asociación Americana de Vendedores de Libros. ¿De qué sirve? Bueno, esta asociación agrupa a cerca de 1,400 tiendas pequeñas, lo que lo convertirá en el principal distribuidor de títulos independientes en formato digital.

Si la llegada del Kindle parecía significar un final sombrío para las librerías menores, Google apuesta por lo contrario. Los chicos de Google han hecho bien sus labores: comprenden que Amazon va por la distribución masiva y que Apple quiere posicionar al iPad como un lector de revistas y para uso escolar. En lugar de ser una amenaza para las casas editoriales chicas, Google Editions busca consolidarse como el principal distribuidor de libros que son difíciles de conseguir.


Además, los libros de la tienda virtual Google Editions no vendrían en ningún formato en específico, por lo que serían completamente compatibles con cualquier lector de e-books. Parece que Google no quiere embarcarse en el desarrollo de un lector digital, sino que ha entendido que el nicho que está vacío es la distribución de independientes.

¿A quién beneficia? Pensemos, por ejemplo, en un libro académico, especializado, de tiraje bajo. En lugar de buscarlo por cientos de librerías o de esperar varios días a que Amazon lo consiga, podríamos hallarlo en Google de manera más fácil. Lo mismo sucedería con algunas reimpresiones de libros descontinuados.
El mercado de los e-books sigue moviéndose, con el desarrollo desmedido de aparatos de lectura digital, muchos de ellos condenados a ser flor de un día. Google entiende que ése no es el camino, así que, en lugar de ofrecernos un aparatejo más en los anaqueles, va por comerse el mercado de la distribución. La ventaja es que este modelo ayudaría a reducir el número de libros impresos en tiraje pequeño, lo que podría resultar en una navaja de doble filo. Por un lado, significa un ahorro sustancial en papel; pero por otra parte, podría implicar una pérdida para el autor, ya que (aún) no vale tanto un libro electrónico como uno impreso.

sábado, 3 de julio de 2010

Desvío de llamadas: Los call centers chilenos pierden competitividad frente a Perú y Colombia

En 2005 el mercado chileno de call center prometía crecer a tasas del 20% anual, mientras aumentaba vertiginosamente el número de empresas que competían por ofrecer servicios especializados de televentas, marketing, fidelización, cobranzas bajo la modalidad del outsourcing, apoyándose en sofisticadas herramientas tecnológicas y en una mano de obra dispuesta a satisfacer las exigentes necesidades de los clientes. 

Cinco años después el escenario está cambiando de forma radical. La Federación de Trabajadores de Call Center de Chile ha encendido la luz roja para advertir que los costes están haciendo menos competitiva a la industria local, y que ello estaría impulsando a varias empresas chilenas a migrar sus centros de atención de llamadas a otros países de Latinoamérica, como Perú y Colombia, donde el precio de mano de obra ligada al servicio es menor. 

El informe de competitividad del Foro Económico Mundial de 2009 avala la preocupación del gremio chileno, ya que en él se determinaba que Chile había disminuido dos lugares en su nivel de competitividad, pasando del puesto 28 al 30, mientras que Perú y Colombia subían cinco posiciones. El resultado es que desde 2009 hasta la fecha ya se han perdido 1.500 puestos de trabajo en Chile, según anunció recientemente la Federación de Trabajadores de Call Center del país, detallando que contratar operadores telefónicos en Perú es hasta un 25% más barato que en Chile y, en Colombia, hasta un 17% más económico.

“La hora de trabajo de un operador chileno de call center efectivamente es superior y tiene un coste promedio de 4,82 dólares mientras que en Colombia el coste es de 1,10 dólar y en Perú es de 1,03 dólar, según datos publicados en los medios locales”, afirma Juan Fernando Guzmán, profesor de Administración de Recursos Humanos de la Facultad de Economía y Negocios de la Universidad Andrés Bello y socio consultor de CMG Consultores, consultora chilena especializada en la gestión estratégica de personas. Estas cifras, dice, reflejan con claridad por qué en Chile las plataformas de atención al cliente se están mudando a las naciones vecinas.

Es más, a su juicio, hay una gran similitud entre este fenómeno en pleno desarrollo en Chile y lo acontecido hace unos años atrás en la industria estadounidense de call center, cuando numerosas multinacionales protagonizaron un éxodo de sus centros de llamadas a México, India, Filipinas y Sudáfrica, incentivadas principalmente por los menores costes de mano de obra. Según datos publicados por la revista Call Center Magazine en 2003, una empresa estadounidense podía ahorrar hasta un 40% de sus costes en personal, si operaba su plataforma de atención al cliente en dichas naciones.

Calidad del servicio en jaque
 
Pero no sólo los mayores costes de mano de obra estarían dictaminando la externalización del servicio en Chile a otros países de la región. Lo cierto es que el mercado chileno de call center ha acumulado un cóctel de factores, como la calidad del servicio ofrecido, la preparación de la mano de obra y la gestión comercial del negocio,  que estarían incidiendo negativamente en la pérdida de competitividad chilena, comenta Eduardo Barros, profesor de Psicología Organizacional de la Escuela de Administración de la Universidad Católica y socio de EMB Consulting -consultora chilena especializada en los procesos organizacionales y gestión de personas-.
 
Si bien las empresas estadounidenses vieron una oportunidad de negocio al trasladar sus centros de llamadas al extranjero, lo mismo que ahora está pasando en Chile, la industria estadounidense de call centers siempre ha estado en condiciones de entregar un buen servicio, explica Barros. “En cambio, en Chile, la calidad del servicio de la industria se ha alejado de los estándares internacionales y ello lo podemos observar en los altos niveles de ausentismo laboral, un aspecto que resulta preocupante”, añade.
 
De acuerdo a cifras hechas públicas por la Federación de Trabajadores de Call Center de Chile, el ausentismo laboral en los call centers locales llega a un 20% de lunes a viernes y a un 50% los fines de semana, cifra que caería a un 15% los fines de semana en Colombia y Perú, respectivamente.
 
Cuando hay una elevada tasa de ausentismo laboral, “jamás es responsabilidad exclusiva de una de las partes, esto es responsabilidad tanto de la mano de obra como de la empresa”, sentencia Barros, enfatizando que el ausentismo se da en aquellas compañías que en general han invertido muy poco en el desarrollo profesional de sus empleados.

Barros asegura que “no hay una apuesta consistente en la industria por realizar una adecuada selección del personal, capacitarlo y asistirlo en su posterior desarrollo como profesional a cargo de la atención al cliente”. El resultado lógico de dicha omisión, añade, es la desmotivación del empleado, bajo compromiso con la empresa, ausentismo, alta rotación y, por ende, una calidad del servicio deficiente.

La baja inversión en el recurso humano

Aunque una excepción a la regla estarían siendo algunas empresas chilenas del sector financiero -que en su mayoría poseen sus call centers in house-, y que han invertido en capacitar de mejor forma a sus trabajadores, ejemplifica Barros. Los empleados de estos centros de llamadas, describe, han sido debidamente seleccionados y entrenados para manejar con destreza una llamada de un cliente enojado, cuentan con mejores protocolos de atención y están logrando brindar un mejor servicio.

En síntesis, la banca en Chile ha entendido que su negocio depende demasiado del buen servicio telefónico que pueda ofrecer, sostiene, añadiendo que para lograr mayores niveles de rentabilidad, necesariamente la compañía tiene que invertir en mayor especialización de la mano de obra.
Parte de esta estrategia también implica que las empresas cumplan con condiciones especiales de ambientación en sus plataformas de atención al cliente, dice Sergio Rivera, profesor de Gestión de Ventas de la Facultad Economía y Negocios de la Universidad Andrés Bello, considerando que los empleados operan en una cabina telefónica de pequeñas dimensiones y en turnos de trabajo que suelen ser bastante extensos. Sin embargo, son muy pocas las compañías en Chile que logran cumplir con los requisitos mínimos de ambientación -puesto físico del operador telefónico de 2,30 metros cuadrados como mínimo, sistemas de iluminación, ventilación y aislamiento contra el ruido adecuados, además de buen funcionamiento de los equipos-, “y cuando las empresas cumplen con estos estándares en sus centros de llamadas, su coste tiende a dispararse”, asevera.
También son muy pocas las empresas del sector en el país que pagan las horas extras, ofrecen incentivos y un sueldo acorde con el mercado de trabajo local, recalca, “lo que ha creado un entorno laboral desfavorable para los empleados chilenos de call center, que ha terminado por desmotivarlos, mellando en la calidad del servicio que brindan al cliente”.

Servicio de call center, ¿un commodity?

Otro aspecto ligado a la calidad del servicio es la eficiente gestión del negocio y la capacidad para ofrecer mayor valor añadido a los clientes, un terreno en el cual el mercado chileno tiene mucho camino aún por recorrer, opina Juan Pablo Forno, director académico y profesor del diplomado de Customer Intelligence de la Universidad de Chile y socio fundador de Formulisa, empresa chilena enfocada a rentabilizar la información, modelando el comportamiento del consumidor.
“Una pregunta interesante es ¿qué vende un call center?, si la respuesta son minutos de atención o cantidad de ventas de un producto o servicio, este enfoque es muy limitado y más bien responde al modelo de un producto commodity”, comenta. El negocio debería estar orientado a satisfacer en forma integral al cliente y generar una propuesta de valor, explica, lo que implica realizar análisis avanzados de los datos a partir de la información que se obtiene de los clientes, generar informes que permitan optimizar la atención comercial de los operadores telefónicos y anticiparse a escenarios futuros mediante la aplicación de modelos predictivos. 

En otras palabras, la industria debe incorporar inteligencia de negocios o Business Intelligence a su gestión comercial, asevera Forno, si desea mejorar los actuales estándares de calidad del servicio. Y si bien la tecnología está disponible en el mercado local, reconoce que invertir en inteligencia de negocios es una estrategia compleja y de largo plazo, ya que la empresa que brinda el servicio debe contratar a profesionales de TI calificados, debe invertir más en software y rediseñar su modelo de negocios. “He visto cómo algunos call center se han embarcado en este proyecto pero no han llegado a un feliz término, principalmente porque la gestión del negocio es muy intensa cada día, y no deja espacio para replantear el modelo de negocios”, dice.
Por este motivo, recomienda que los operadores de call center sellen alianzas con firmas especializadas en proveer servicios de Business Intelligence, lo cual les permitiría optimizar y diferenciar su negocio en menor tiempo.

El efecto en el nivel de desempleo

Según estimaciones de la Federación de Trabajadores de Call Center de Chile, se estarían perdiendo alrededor de 15 mil puestos de trabajo en el país, entre enero y junio de este año, debido a nuevas licitaciones que se adjudicarían operadores del servicio en Perú y Colombia. "Atento Perú -filial de Atento, uno de los principales operadores de call center de la industria mundial- se está ganando todas las licitaciones y van a producirse alrededor de dos mil despidos en Atento Chile", dijo la presidenta de la Federación de Trabajadores de Call Center de Chile, Tamara Muñoz, a través de la prensa local.
Sin duda, lo anterior representa un negativo impacto en la actual tasa nacional y la pérdida de una oportunidad para aquellas personas que no tienen una formación universitaria pero sí técnica, comenta Gerson Volenski, profesor de Gestión de Recursos Humanos Escuela de Negocios de la Universidad Adolfo Ibáñez, añadiendo que la mayoría de los empleados que trabajan en esta industria tienen un perfil técnico.
No obstante, el efecto también trascendería a otras industrias relacionadas, como por ejemplo las compañías que brindan servicio de capacitación a empleados telefónicos y las empresas que ofrecen equipamiento especial para call center, afirma Eduardo Torres, profesor de Marketing de la Facultad Economía y Negocios de la Universidad de Chile.
Incluso, anticipa que las empresas chilenas que decidan externalizar sus servicios de centros de llamadas a Perú y Colombia, podrían experimentar una merma en su imagen y en la calidad de su servicio, debido a que cuando un cliente chileno llame “le contestará un operador extranjero que no será capaz de transmitir el espíritu de la compañía local, como tampoco podrá interpretar con exactitud cuándo un cliente chileno está molesto, ya que el tono de voz y los modismos difieren mucho de una cultura latinoamericana a otra”. Si esta situación llegara a ocurrir, advierte, es muy probable que el cliente chileno quede disconforme con el servicio que le ha entregado la empresa local.
Y, de hecho, este escenario ya se ha producido antes en Chile. Hace un tiempo atrás Movistar Chile -proveedor local de servicio de telefonía móvil, televisión digital y Banda Ancha- decidió migrar su plataforma de atención al cliente a Colombia, recuerda Rivera, “y al comienzo los clientes chilenos no lograban identificarse con los operadores colombianos, y volvían a llamar a la empresa solicitando que los atendiera un operador chileno”.
Aunque Barros tiene una visión distinta respecto de este punto, argumentando que con certeza al cliente estadounidense tampoco le gustó la idea de tener que tratar con un operador mexicano o indio, “aunque le respondiera en perfecto inglés. Pero la diferencia cultural no fue un motivo lo suficientemente grande para que impulsara al cliente estadounidense a no llamar al contac center, con el tiempo éste logró habituarse”, dice. Hoy el mercado está apuntando cada vez más hacia la globalización del servicio, sostiene, lo que significa que al cliente cada día le va a importar menos que le responda un operador telefónico extranjero, desde cualquier parte del mundo.
Las lecciones para la industria chilena
Varias son las lecciones que puede extraer la industria chilena de centro de llamadas a partir del fenómeno migratorio que está experimentando, pero para Forno la principal moraleja es que el mercado debe potenciar la oferta de valor de su servicio, mediante la incorporación de inteligencia de negocios a su gestión comercial, una estrategia que a su juicio, ayudaría a incrementar su nivel de competitividad regional.
Las compañías también deberían hacer una profunda reflexión y comprender que “la mayor inversión en la capacitación de su personal entrega un valor diferencial de satisfacción al cliente, que significa mayor rentabilidad para la empresa”, dice Barros.
Otra gran lección para el mercado local es entender que es posible mejorar las condiciones laborales, comenta Guzman, teniendo claridad que una gestión estratégica de personas significa procurar el bienestar y la comodidad del trabajador, “lo que a la larga se traducirá en menor ausentismo, mayor profesionalismo y mayor grado de compromiso con la empresa. Quizás así Chile no necesite mirar hacia otras fronteras”. 

viernes, 2 de julio de 2010

De la intuición a la predicción: ¿Cómo aprovechar los sistemas de análisis de negocio?

Las empresas giran hoy alrededor de los sistemas administrativos (ERP) que significaron la primer ola de estandarización global en sistemas de administración; de los sistemas de manejo de clientes (CRM) que significaron la segunda ola de estandarización global; y de tantos otros sistemas más que registran eventos y procesan datos (los que manejan el tráfico en una central telefónica o un sistema de control de la producción, por ejemplo) que luego podemos listar ordenados según ciertos criterios, para entender cómo va el negocio.
Con esto, estamos acostumbrados en consultar –por ejemplo- cuales han sido las ventas a los clientes que son ferreterías de la zona Cuyo que nos han comprado productos de la línea Z en el último trimestre, agrupados por cliente y ordenados por fecha.
No está mal. Nada mal. De hecho, con este tipo de información el mundo de los negocios se ha estado manejando hace ya muchos años (algunas empresas líderes desde la época de aquellos viejos clásicos de ciencia ficción). Yendo un paso más allá, aquellas empresas en un grado más avanzado, han aplicado técnicas que permiten observar y analizar los comportamientos históricos de consumos, demandas y comportamientos con mucha flexibilidad; en lo que se conoce como Business Intelligence, o Inteligencia de Negocios.
En algunos otros casos, las computadoras también toman decisiones -en base a reglas predefinidas-, que disparan acciones de manera automatizada, en la barrera de un peaje o bien en la pre-aprobación de un crédito avanzándolo -o no- al siguiente paso, por nombrar algunos.
Ahora bien… ¿eso es todo lo que nos puede dar una computadora? ¿Acaso su función se limita a ser un “ordenador” que “ordena” datos, según criterios que prefijamos de antemano?
Hay buenas noticias en este aspecto y es la irrupción de la tercera ola de sistemas globalizados.
La predicción y el impacto en el negocio
De un tiempo a esta parte –principalmente en USA y UE- las empresas más competitivas se han montado en la ola de los sistemas de análisis predictivo. Estas empresas líderes han descubierto que ese historial de datos del que disponen puede ser utilizado para transformarlo en información predictiva; y así ha crecido en muy poco tiempo la difusión de modelos dedicados a entregar información predictiva conocidos como Business Analytics. La tercera ola después del ERP y el CRM.Hasta ahora, era bastante trivial que pudiéramos –con los sistemas tradicionales- pronosticar, por ejemplo, el consumo de cerveza entre los hombres durante el verano o las ventas estimadas de útiles escolares en Marzo, basados en la historia que hemos registrado.
Ahora bien, ya no alcanza con algo tan obvio. Se puede averiguar algo más sutil –y que permita diferenciarnos de manera notable de la competencia- a partir de la relación entre muchas otras variables que hasta hoy no teníamos posibilidades de cruzar.
Los sistemas de Business Analytics nos permiten ahora poder relacionar–literalmente- millones de registros, con cientos de atributos cada uno y revelar así los patrones de conducta –uso, consumo, preferencias, etc- que están escondidos en ellos.
Con esta revolucionaria técnica se pueden responder con fina precisión preguntas como:
  • ¿Cuál va a ser la demanda y en ese caso, como puedo planificar la producción?
  • ¿Cuáles clientes van a adquirir qué productos en qué circunstancias? (up selling/cross selling)
  • ¿Qué clientes tienen mayores posibilidades de abandonar la compra de mis porductos/servicios? (retención; churning)?
  • ¿Cómo será la demanda del producto X según las regiones ó sucursales? 
  • ¿Cómo reaccionarán los clientes frente a un incremento de precios?
  • ¿Cuándo se debería realizar una promoción?
  • ¿Qué promoción maximizará el margen?
En términos generales, el Business Analytics responde a la siguiente pregunta general: ¿Quién va a hacer qué cosa bajo que condiciones?
Esto se puede hacer porque las respuestas a esas preguntas están ocultas en la historia de datos que las empresas conservan y mantienen.
La tendencia de los líderesPara poder encontrar estas respuestas, los sistemas predictivos se basan en 3 pilares:
  • 1. Disponibilidad de muchos datos (del ERP, del CRM, de otros sistemas específicos de cada industria, etc.).
  • 2. El uso de modelos estadísticos.
  • 3. Capacidad de un enorme poder de procesamiento.
El punto 1 es una realidad en casi toda empresa. De hecho, es lo que hemos estado haciendo tan bien los últimos lustros, con los ERPs, CRMs y demás sistemas. El punto 2 no es nada nuevo. Son modelos –algunos con cientos de años ya- que ya hemos estado usando para saber, por ejemplo, cuánta cerveza consumen los hombres en el verano o cuantos útiles escolares venderemos en Marzo. El punto 3 está disponible también desde hace unos años a un costo insignificante respecto a su poder de procesamiento.
Esta conjunción de factores fue rápidamente descubierta por la siempre presente presión competitiva y se ha cristalizado en estos sistemas que predicen conductas: Business Analytics.
La predicción: el desafío necesarioEl 98% de las Top 500 de las empresas globales están usando Business Analytics. La primera lectura que nos surge de ese dato, es que lo pueden hacer porque son organizaciones grandes y poderosas. La lectura correcta -a mi entender- es que son grandes y poderosas porque hoy son líderes en el manejo de la información predictiva, como antes lo fueron en implementar CRMs, y antes de eso los ERPs, (antes aun por haber instalado computadoras ya en la época aquellos viejos clásicos de ciencia ficción).
Y si cree que la crisis es una razón para considerar este tema el año que viene, piense de nuevo. Porque la crisis no ha hecho más que recordarnos que –en términos generales- la competencia aumenta, los márgenes tienden a reducirse, y los mercados se ponen más selectivos. Bajo esta consideración, creemos que viviremos en “crisis” en los tiempos por venir.

Seguidores