Para utilizar las funcionalidades completas de este sitio, es necesario tener JavaScript habilitado. Aquí están las instrucciones para habilitar JavaScript en tu navegador web .

De acuerdo con Forbes el 66% de las compañías ya tercerizan entre el 11% y el 75% de sus aplicaciones de inteligencia de negocios. Forrester predice que hasta un 80% de las firmas van a confiar en proveedores de servicios de inteligencia para alguna porción de sus capacidades de descubrimiento durante el año 2018.

Una analogía sencilla puede ayudarnos a comprender porque esta estadística tiene mucho sentido. Supongamos que usted ha querido mejorar su condición física por algún tiempo y ha llegado el momento de tomar la decisión y pasar a ejecutar su objetivo, podría tener las siguientes opciones:

  1. Ir a la tienda de deportes y comprar el equipo más sofisticado disponible.
  2. Adquirir la membresía de algún gimnasio reconocido.
  3. Contratar un entrenador que diseñe una rutina personalizada y le asesore con la misma.

¿Según su experiencia o criterio cuál considera que le brindaría los mejores réditos?

Regresando al terreno de la inteligencia de negocios y la analítica, supongamos que a nivel empresarial usted ya tiene conciencia con respecto a la importancia de ejecutar iniciativas de analíticos para su transformación digital y el desarrollo de ventajas competitivas en su negocio. Veamos algunas de sus opciones:

  1. Realizar una inversión de capital en implementar una solución de analíticos que luego deberá aprender a gestionar.
  2. Aprovisionar los servicios de analíticos de un fabricante que involucre uno o más terceros para llevar a cabo su ejecución.
  3. Contar con especialistas de datos que le den acompañamiento continuo y trabajen junto con su equipo para obtener el mayor valor de sus datos.

¿Según su experiencia o criterio cuál convendría más?

IBM DataFirst

DataFirst es el método de trabajo enfocado en transformar su negocio, al tiempo que se obtiene el mayor valor y conocimiento de sus datos. Brinda la estrategia, la experiencia y la hoja de ruta para empoderarle en su viaje desde la primera base analítica hasta la monetización de una empresa cognitiva.

Este método le ayuda a resolver sus necesidades más apremiantes, llenando los vacíos existentes y a creando valor en cada paso por medio de un enfoque iterativo, ágil, y centrado en la nube.

De esta manera, es posible construir un caso de negocio para avanzar en su transformación analítica, mitigar los riesgos en la implementación de las soluciones y acelerar su tiempo para obtener valor.

El método le habilita para…

DataFirst consiste en elegir un problema para comenzar a enfocarse en el mismo, identificar las brechas existentes, así como las áreas que deben abordarse; con el fin de establecer un plan para validar y probar la solución propuesta.

Como metodología ágil, las construcciones clave del método DataFirst se muestran a continuación:

  • Usted puede COMENZAR EN CUALQUIER LUGAR, lo que le permite centrarse en sus mayores oportunidades de negocios.
  • Le ayuda a LLENAR LOS VACÍOS, de estrategia, experiencia y habilidades demostradas en ciencia de datos y analíticos, ni más ni menos.
  • Finalmente, DataFirst le permite CONSTRUIR VALOR EN CADA PASO, conduciendo en última instancia a una cultura basada en datos, una iniciativa a la vez.

GBM su Coach Empresarial para analíticos

Dentro del portafolio de Soluciones Integradas de Analíticos, GBM cuenta con iniciativas enfocadas en el Descubrimiento de Datos,  donde usted podrá contar con un servicio de científicos de datos, que por medio del DataFirst y otras metodologías complementarias tales como el Design Thinking, Lean Management y Ágil, le brindarán acompañamiento experto con el fin de generar conocimiento de las fuentes de datos existentes en su organización, discernir la información clave e información relevante, generar prototipos de los datos , así como divulgar a las áreas involucradas los hallazgos relevantes en un enfoque de equipo de equipos.

Si quiere ir mas allá de la implementación de una pieza de analíticos, o la adquisición de un servicio que será implementado por terceros, contáctenos. Con gusto se le explicará que nos hace el coach empresarial para analíticos de nuestros clientes.


Compartir este artículo
Digital Tech Trends

01 Noviembre, 2018 | Sobrevivir a tiempos de cambio y no morir en el intento, para las empresas es todo un reto hoy en día. Las compañías han visto en la innovación la forma de subsistir y están buscando cómo transformar sus negocios con tecnologías digitales como: Inteligencia Artificial, Cloud, Contenedores, Microservicios, Kubernets, Robotic Process Automation (RPA), Application Programming Interface (API) y Analitycs Engine. Estas tecnologías les permiten a las empresas innovar en sus aplicaciones de negocios y obtener ventajas competitivas, así como encontrar nuevas formas de interactuar con los consumidores, a través de sus dispositivos, como teléfonos y relojes digitales. Las pasarelas de pagos y los asistentes virtuales que están llegando a los portales de servicio al cliente son ejemplos del uso que se le están dando a estas tecnologías en la transformación digital. Los departamentos de tecnología de las empresas siempre están en búsqueda de sacarle más provecho a sus inversiones de hardware y software (almacenamiento, comunicaciones, middleware, etc) para mejorar el tiempo de respuesta de sus aplicaciones de negocios y reducir costos operativos. La tendencia tecnológica en esta área está liderada por contenedores Docker, el gestor de contenedores Kubernets y la arquitectura de microservicios. Docker es una tecnología de contenerización que permite a los desarrolladores crear aplicaciones auto contenidas en “microservicios”. La construcción de una aplicación requiere de un número importante de recursos y elementos que incrementan la complejidad de preparar el entorno antes de habilitar el desarrollo de la aplicación a utilizar, estos entornos poseen limitantes de escalabilidad, en su gran mayoría delimitados por el tamaño del equipo físico donde reside. Con la contenerizacion se reduce esa complejidad que dispara innecesariamente los costos de hardware/ software y de administración de plataformas. En pocas palabras, con contenedores y microservicios las aplicaciones de negocio se cortan en pequeñas partes completamente independientes haciéndolas más costo-efectivas. Ahora que las aplicaciones de negocio están “cortadas”    en    varias    partes,    es    necesario automatizar su gestión, Kubernets o Kubernetes robustece el uso de contenedores, dado que permite habilitar y gobernar una colección de contenedores permitiendo definir esquemas de alta disponibilidad y habilitación de “clustering” a fin de que las aplicaciones contenidas en los contenedores puedan funcionar como un solo organismo. Al mismo tiempo, proporciona un entorno que permite su monitoreo, control y capacidades para escalar la infraestructura de forma dinámica (haciendo realidad el concepto de nube híbrida) como respuesta al incremento del consumo de la aplicación por los usuarios finales. Lo anterior, ha disparado proyectos  de modernización de aplicaciones para buscar flexibilizar las aplicaciones de negocio y reducir costos operativos en el camino. Lo interesante de este cambio, es que ha entregado a los ejecutivos de negocio herramientas para encontrar nuevas fuentes de ingreso, y en la actualidad, las empresas buscan la habilitación de microservicios para exponer funciones de negocio que tradicionalmente eran consumidos sólo internamente, hacia el mundo exterior. Este cambio de paradigma busca obtener nuevos beneficios al compartir información, y en la mayoría de los casos, monetizar en el proceso. Esta tendencia esta liderada por los APIs o Business APIs. Application Programming Interface o API es un término técnico utilizado por los desarrolladores para definir instrucciones con las cuales comunicarse con otras aplicaciones por medio de código de software. Sin embargo, cuando hablamos de Business APIs no estamos refiriéndonos a un tema técnico, sino a la oportunidad que tiene una empresa de exponer capacidades de negocio y/o información con socios, competidores o cualquier tercero y cobrar por cada vez que éstos utilicen ese Business API. Por ejemplo, la exposición de un servicio de calificación de riesgo que utilicen terceros (mueblerías, tiendas de electrodomésticos, etc.) y que puedan habilitar un perfil del cliente en tiempo real y proveer a través de un servicio con el banco la compra o el financiamiento de algún producto. Los Business APIs son el lenguaje de las startups y de los emprendedores, ya que éstos les permiten crear productos digitales de forma rápida y agregar valor donde nadie más lo está haciendo. Cada vez que una persona pide comida a domicilio por medio de Uber Eats, la aplicación utiliza múltiples Business APIs para dar el servicio, entre ellos los APIs de medios de pago de Visa y Mastercard por los cuales Uber tiene que pagar por su uso. Esta dinámica con las startups y la creación de productos digitales ha puesto mucha presión sobre las empresas para encontrar formas de interactuar con estos nuevos actores en su lenguaje y hacer alianzas que les permitan acelerar la cocreación de productos digitales y con esto garantizar la vigencia de sus productos y servicios con el nuevo consumidor digital. La tendencia que habilita la interacción con startups y la creación de productos digitales es el Cloud. La innovación digital empresarial no es tan sencilla, ya que las empresas con productos análogos no inician con el “lienzo en blanco”. Sin embargo, el Cloud es la plataforma que permite tener acceso a las tecnologías de punta (contenedores, API, Inteligencia Artificial) sin tener que hacer grandes inversiones económicas, permitiéndoles a los equipos de innovación la creación de productos digitales en cuestión de semanas para validarlos con los consumidores y así crear alianzas con startups que sumen al éxito del producto digital. En resumen, el Cloud es la caja de herramientas que utilizan los intraemprendedores de la empresa para utilizar todas las tecnologías digitales emergentes para la creación de productos y servicios nuevos y con ello hacer la realidad la innovación digital empresarial. En esta transformación digital, las empresas también están buscando transformar los procesos de negocio para brindar una mejor experiencia y/o reducir los costos operativos para el procesamiento de las solicitudes de los clientes. Aquí entramos al terreno de la Inteligencia Artificial y Robotic Process Automation. RPA o Robotic Process Automation es una tecnología cuya aplicación se encuentra orientada a optimizar actividades repetitivas dentro de los procesos de las organizaciones y que, en la gran mayoría de los casos, se consideran actividades manuales y transcripción de información de un sistema a otro. Esta tecnología permite de forma bastante rápida la captura del comportamiento de un operador de la computadora y grabar la secuencia de pasos u operación diaria. Como resultado de lo anterior, tenemos “Robots” en la ejecución de las tareas repetitivas que realiza un operador humano y que, en la mayoría de los casos, su horario de ejecución se extiende de las 8 horas diarias a 24. Un conjunto de robots puede ser visto como una fuerza de trabajo virtual. Es por esto, que RPA está impulsando proyectos enfocados a reducir el costo operativo y aumentar la eficiencia operativa dentro de los procesos de la empresa. Sin embargo, no todas las tareas realizadas por las personas son estructuradas y repetitivas, algunas requieren de cierta capacidad de análisis de información y entendimiento del contexto para tomar la decisión correcta, es aquí donde la Inteligencia Artificial entrega herramientas que permiten simular algunas capacidades cognitivas humanas como el aprendizaje por medio de la lectura de información (Machine Learning), identificación de patrones, el procesamiento del leguaje natural por medio de la escucha y el habla, y finalmente incorporar estas capacidades a los procesos para hacerlos más eficientes y crear una mejor experiencia para el cliente. Los máximos exponentes de esta tendencia son los asistentes virtuales que están llegando a los portales de servicio al cliente y/o a los canales digitales que utilizan los consumidores como Facebook Messenger, Siri, Alexa, etc. Sin embargo, las capacidades de la Inteligencia Artificial pueden apoyar en muchas más tareas y procesos dentro la organización que permitan competir de mejor manera en la economía digital. Finalmente, toda esta explosión de interacciones digitales genera una cantidad de datos sobre los consumidores que para las empresas son difíciles de almacenar, analizar y capitalizar en hallazgos que les permitan definir mejores estrategias. La tendencia en esta área son los Analytics Engine. Los Analytics Engines proporcionan las herramientas para realizar análisis sobre volúmenes de datos elevados, éstos se apoyan en los Datalakes, que es un lugar para almacenar datos estructurados y no estructurados, así como un método para organizar grandes volúmenes de datos muy diversos de diversas fuentes. Finalmente, estas tecnologías combinadas con Machine Learning y Deep Learning permiten a las empresas sacarle provecho a la información y crear estrategias de monetización basadas en datos. La adopción de todas las tecnologías digitales mencionadas en este artículo puede ser intimidante, es por ello que hemos creado el foro “Digital Tech Trends” donde convocamos a diferentes líderes de tecnología dentro de las empresas por medio de webinars mensuales y eventos presenciales, para acercarlos a estas tendencias y mostrarles casos de uso prácticos que pueden considerar implementar dentro de sus organizaciones para potenciar una relación estratégica entre los líderes de tecnología con los líderes de negocio. IBM ha entendido el reto que tienen los líderes de tecnología en esta trasformación digital y es por esto que ha consolidado todas estas tecnologías digitales en un solo producto llamado IBM Private and Public Cloud, con el cual las empresas pueden adoptarlas en cuestión de un par de semanas, y con ello iniciar la modernización de sus aplicaciones, la monetización de Business API, innovación para la creación de productos digitales, creación de fuerzas de trabajo basadas en RPA e Inteligencia Artificial, definir estrategias de monetización de datos y con todo ello avanzar en la transformación digital de sus negocios análogos. Por su parte, GBM con esta iniciativa busca apoyar a los líderes de tecnología brindándoles las herramientas  para  experimentar  sobre  las nuevas tendencias de  nube  híbrida  y  que puedan tomar la mejor decisión sobre dónde invertir su tiempo y dinero para  agregar capacidades digitales a la empresa.  

El viaje de RPA

01 Noviembre, 2018 | Cuando pensamos en robots, nuestra mente busca referencias de la ciencia ficción como, R2D2, Wall-E, o inclusive Terminator. Imaginamos creaciones mecánicas que nos ayudan en nuestra vida cotidiana con capacidades que complementan o inclusive mejoran las propias de nuestra condición humana. La realidad, aunque un poco diferente, de los robots que idealizamos no está lejos de la concepción original de la ciencia ficción, nuestra visión del futuro está sucediendo ahora. Gartner prevé que el mercado de automatización a través de robots de software crecerá un 41% año tras año hasta el 2020. Forrester estima que en el 2021 habrá más de 4 millones de robots haciendo diferentes tipos de tareas administrativas, de oficina o de ventas.   Adentrándonos en RPA Los robots de software entran en este panorama como una tecnología disruptiva cuyo potencial es capaz de crear nuevos paradigmas de negocio. No tienen pies ni manos, pero son capaces de interactuar con las estaciones de trabajo como lo haría una persona, imitando sus acciones sobre los aplicativos. RPA (Robotic Process Automation) es la práctica de automatizar actividades de negocio, utilizando robots de software, para realizar tareas principalmente transaccionales, y repetitivas, basadas en reglas definidas y sin interferencia de decisiones humanas. El término RPA se acuña a principios del año 2000, y no surge particularmente de una nueva tecnología central, sino es más una evolución de tecnologías como “screen scrapping”, y automatización de flujos de trabajo, e incorpora otras como reconocimiento óptico de caracteres (OCR). Agrega además funcionalidades para grabar acciones ejecutadas en una computadora, y la posibilidad de crear robots de una manera visual mediante facilidades de arrastrar y soltar sin la necesidad de que las personas tengan conocimientos profundos de codificación. El potencial de RPA es emocionante, promete aumentar eficiencia, reducir costos, y un rápido retorno de inversión, sobre todo porque un robot no es susceptible a fatiga o desmotivación; sin embargo, no se debe olvidar un hecho clave: no importa cuán poderosa sea la tecnología, se basa en el diseño y la programación humana, por lo que tiene limitaciones. La propuesta de valor La propuesta de valor de RPA se basa en las bajas barreras que ofrece la tecnología, ya que tiene un costo razonable, permite desarrollar rápidamente, los tiempos de implementación de un robot de software se miden en semanas, y no es invasiva, es decir no depende que se modifiquen sistemas existentes. Para lograr el éxito es esencial tener un entendimiento claro de las necesidades, prioridades, y procesos de la organización, así como las capacidades propias de la tecnología para escoger los casos de uso que mejor se adapten. Se recomienda siempre entender ¿qué se quiere automatizar? Y ¿por qué? y detallar si las actividades identificadas requieren previamente de una mejora. RPA no es un destino final sino un viaje. Revisemos las etapas de este viaje: Establezca el camino y enfoque el esfuerzo: •    Concéntrese en establecer prioridades de automatización para obtener una lista de iniciativas basadas en la ponderación de los objetivos de negocio con respecto a las necesidades. •    Elija un socio tecnológico que lo apoye en la adopción asertiva de RPA. •    Obtenga el compromiso ejecutivo. Descubra/seleccione/evalúe: •    Detalle los pasos de los procesos candidatos para entender el alcance de la automatización, además filtre si el proceso candidato es idóneo para RPA como un todo o una parte de éste. •    Evalúe los beneficios y la factibilidad técnica.  •    Determine si el proceso levantado requiere de mejoras y estandarización antes de ser automatizado. •    Establezca el Pipeline de Automatización: Consolide las iniciativas de automatización que pasaron por los filtros previos y están listas para continuar. Defina/implemente/entregue: •    Defina, implemente, y entregue las soluciones de automatización de manera continua. •    No olvide proveer acompañamiento para la adopción efectiva. RPA se puede aprovechar de múltiples maneras y la forma de utilizarlo es única en cada organización. La flexibilidad y facilidad de implementación puede acercarnos a una transformación de negocio completa, en la  que en el camino se puede incorporar la Inteligencia Artificial, o la gestión de procesos de negocio a través de tecnologías como BPM. Lo importante es tener la determinación de iniciar, enfrentar el reto, y emprender el viaje, para mantenerse competitivo en la era de la automatización.  

Rezago en transformación digital

01 Noviembre, 2018 | Hacer que los procesos de una organización estén digitalizados es tan complejo como urgente.Un error frecuente es creer en la necesidad de una reingeniería previa o un análisis exhaustivo de los requerimientos de los usuarios. Ambas tareas han demostrado ser fuente de atrasos y de gastos excesivos que atentan directamente contra los resultados. Además de la consabida parálisis por análisis, esas actividades consumen una tremenda cantidad de energía y esfuerzo, y terminan siendo un desperdicio; porque si alguna vez se llega, el final del proyecto será obsoleto: las necesidades habrán cambiado o el proceso ha sido modificado. La necesidad de hacer el cambio muy rápido es dada por la velocidad con la cual está cambiando el mundo a partir de las tecnologías disponibles. Para evitar esta conocida tragedia de digitalización, se inventaron las metodologías ágiles, en las cuales los usuarios trabajan junto con los técnicos para poner en operación sistemas con mínimas adaptaciones en el menor tiempo posible. Se parte siempre de un “mínimo producto viable” (MVP, por sus siglas en inglés), es decir, una digitalización pequeña de una parte importante del proceso. Se pone en producción y se consideran los comentarios y requerimientos de los usuarios antes de una nueva, y muy pronta, iteración. De esta manera, con iteraciones frecuentes se va, poco a poco, produciendo la transformación. El problema de las metodologías ágiles es no contar con un presupuesto “firme e invariable” antes de iniciar el plan, ni con un cronograma detallado donde se indique cuándo terminará el proyecto. Esto hacía, tres o cuatro años atrás, muy difícil a los jerarcas aprobar nuevas propuestas. Pero la experiencia ha demostrado que esas metodologías producen resultados mucho más rápidos y baratos que las tradicionales, tipo cascada: primero se definían los requerimientos, luego se diseñaba todo el sistema, después se desarrollaba, se probaba y, con suerte, al final se ponía en producción. Interacción La clave, claro está, es la interacción continua y profunda entre los usuarios y los técnicos. Al estar haciendo entregas frecuentes, los usuarios empiezan a utilizar el proceso digitalizado muy pronto, tienden a pedir menos funciones. Antes se pedían algunas funciones “porque tal vez harían falta”.   También se les van haciendo a los procesos pequeñas modificaciones cuya necesidad se vuelve obvia. Nunca se efectúan reingenierías masivas que cambian todo antes de digitalizarlo. El riesgo de digitalizar procesos ineficientes desaparece, pues la puesta en funcionamiento de nuevas funciones de manera constante y frecuente permite modificaciones a los procesos casi en una modalidad de prueba y error. Es muy fácil hacer modificaciones pequeñas. Estas metodologías ágiles han hecho posible la transformación digital acelerada y exitosa. La necesidad de hacer el cambio muy rápido es dada por la velocidad con la cual está cambiando el mundo a partir de las tecnologías disponibles. Una organización funcionando hoy con procesos de papel está destinada al fracaso porque no solo son muy caros y propensos a errores, sino también porque promueven la opacidad y, por ende, la corrupción.   Para el sector público en Costa Rica puede ser un poco más complicado utilizar estas metodologías. Si bien no es cierto que la Ley de Contratación Administrativa sea un obstáculo, es verdad que requieren más pasos de manera más inmediata. En el sector productivo, hace años existe la consciencia de que para digitalizar procesos no son necesarios ni equipos ni programas, sino servicios. En el sector público, a pesar de que hace como seis años se publicaron un decreto y una directriz para que todos se movieran a la nube, no lo han hecho. Todavía hoy siguen adquiriendo equipos y licencias (ya hasta construyen centros de datos para albergar esos equipos). El primer paso que hay que dar es entender las bondades de adquirir servicios. Al comprar servicios en lugar de “cosas” es posible determinar, contractualmente, la calidad del servicio. Cuando la calidad de un servicio es parte de un contrato, con consecuencias financieras por incumplimiento, la entrega del servicio se vuelve muy predecible en calidad y oportunidad. Contratar En lugar de contratar una empresa para que desarrolle un sistema de acuerdo con una larga lista de requerimientos, es posible contratar el servicio y la operación de uno con mandatos muy vagos, como  por  ejemplo:  “digitalizar  el  proceso  XYZ, siguiendo una metodología ágil”. La elaboración de un cartel para la contratación de servicios es muy  diferente,  se  parece  más a un concurso de antecedentes. Debe solicitarse experiencia, tanto en la adaptación e implementación de soluciones similares, como en la operación del sistema en producción. Hay que definir la calidad del servicio (SLA, por sus siglas en inglés) tanto en términos cuantitativos (disponibilidad, velocidad, capacidad, etc.) como en términos cualitativos (satisfacción del usuario interno y externo, o ideas innovadoras, etc.).   La forma de pago puede ser por hora profesional durante la implementación y por transacción durante la operación (estoy seguro de que existen muchas otras, todas innovadoras). Se debe definir el plazo de la contratación, sobre todo para la operación del servicio, y asegurarse de que la infraestructura (nube) por utilizar y las licencias necesarias puedan ser traspasadas a otro operador al finalizar el plazo (o en cualquier momento si se incumplen los SLA). No pretendo, en ningún momento, insinuar que la contratación de soluciones como servicio, utilizando metodologías ágiles, sea la pomada canaria de la digitalización. Sin duda el proceso requerirá de un enfoque innovador y aparecerán piedras en el camino que pretenderán descarrilar el proceso y habrá infinidad de problemas. Pero en Costa Rica existe suficiente experiencia, así como empresas dispuestas a invertir, a cambio de un contrato que genere ingresos durante un período adecuado (¿5 años?). Eso permitirá acelerar la transformación digital del sector público, cuyo rezago pagamos todos diariamente. También estoy claro en que el método tradicional no sirve; es demasiado lento, caro y produce resultados equivocados. Cuanto más grande el proyecto, mayor la posibilidad de fracaso. De hecho, la probabilidad de fracaso crece más que proporcionalmente al tamaño del proyecto. No podemos seguir haciendo lo mismo y esperar resultados diferentes. Periódico La Nación, 12 de agosto 2018  https://www.nacion.com/opinion/columnistas/rezago-en-transformacion-digital/WKWM27TJIFFRVECH4BQE2JRCLQ/story/

GBM cuenta con la única red regional de Datacenters interconectados

01 Noviembre, 2018 | GBM, líder en tecnologías de información, firmó un acuerdo con la empresa de telecomunicaciones Ufinet, para ofrecerle a sus clientes una solución end-to-end desde el Data Center hasta la oficina de los clientes, con un único proveedor y con un mayor alcance en servicios de tecnología. Este acuerdo da como resultado la única red de Data Centers interconectada con presencia en cada país de Centroamérica y República Dominicana, ofreciendo conexiones de Internet con grandes beneficios en sus enlaces, capacidad y transporte a nivel regional, desde México, Centroamérica, Argentina, Colombia, Perú, Ecuador, Paraguay y hasta Chile. “Servicios de enlaces dedicados, una mejor estructura a nivel de acuerdo entre ambas empresas  y más beneficios de alto valor para nuestros clientes”, son algunas de las ventajas de este acuerdo, dijo Eric Arosemena, Gerente Regional de Nube Híbrida para GBM. GBM tendrá acceso a la diversidad de servicios que ofrece Ufinet, muchos de los que se integran con servicios de nube de GBM, como por ejemplo los relacionados con la continuidad del negocio, como la recuperación de desastres y el respaldo de la información. Con la nube híbrida de GBM, que es la combinación de la nube privada y la pública, se maximizan los beneficios al aprovechar la escalabilidad, reducción de costos e innovación de la nube pública, al mismo tiempo que se aprovechan las inversiones ya realizadas por las empresas.   GBM y Ufinet concretan un acuerdo regional para ofrecer una solución end-to-end desde el datacenter hasta la oficina de los clientes con un único proveedory con un mayor alcance en servicios de tecnología. "Este vínculo nos permite interconectar todos los Data Centers y las oficinas de nuestros clientes de forma transparente y con la experiencia de un único proveedor. Si un cliente se encuentra en Costa Rica, podrá tener sus cargas de trabajo y datos de Guatemala aprovechando la conexión de fibra y otras facilidades que ahora ofreceremos directamente. Es decir, la información puede estar en varios países y asimismo contar con todos los servicios de tecnología que ofrece la empresa”, agregó Arosemena.   “Los servicios de Ufinet van a permitir accesibilidad y que GBM funcione como un único centro de compra, cubriendo toda la región. Otros beneficios de este acuerdo son: simplicidad tarifaria, agilidad en los procesos, precios competitivos y sobre todo de cara al cliente, será un único contacto con soluciones de valor acorde a sus necesidades”, dijo Carlos Barquero, Gerente Comercial de Ufinet. “Poseemos 8 Data Centers interconectados entre sí y a las grandes nubes públicas como IBM Cloud, Microsoft Azure y otros, lo que nos permiten entregar soluciones híbridas de Software como Servicio (SaaS) o de Infraestructura como Servicio (IaaS), ya sea en sus premisas o en la nube, apoyadas en nuestros servicios de administración, operación y soporte.”, agregó Arosemena.  

Hiperconvergencia, sinónimo de flexibilidad y sencillez

01 Noviembre, 2018 | La explosión en ambientes virtualizados, ya sea en cargas de trabajo para bases de datos, servicios de red, aplicaciones de colaboración o comunicaciones unificadas, demanda un enfoque más inteligente en la gestión del Centro de Datos. Para muchos está claro que mantener la arquitectura tradicional de tres niveles ha dado lugar a ineficiencias en el aprovisionamiento, silos entre las unidades de negocio y TI, y a la incapacidad para escalar globalmente a medida que las necesidades empresariales crecen. Por eso empresas de diversas industrias, tanto pequeñas como grandes, públicas como privadas, han optado por ambientes hiperconvergentes. Pero, ¿qué es la hiperconvergencia? La hiperconvergencia es sinónimo de flexibilidad, sencillez y agilidad en implementación, administración y escalamiento en los Centros de Datos. Mediante una arquitectura que integra los recursos de cómputo y almacenamiento en un dispositivo 100% definido por software, la hiperconvergencia consolida y ejecuta de manera eficiente todas las cargas de trabajo virtualizadas en un solo sistema. Esta eficiencia operativa va acompañada de una gran optimización en el rendimiento y capacidad de cómputo del Centro de Datos. Sin embargo, la flexibilidad y simplicidad que distingue a una solución hiperconvergente no se le debe considerar como el objetivo final, sino más bien como el principio de la construcción de una nube empresarial, la cual debe contar con la misma funcionalidad que la nube pública. Es decir, ser capaz de permitirle al usuario la autogestión y orquestación para obtener los recursos que necesita vía un portal, en relativamente poco tiempo de planificación y que pueda integrarse de manera sencilla con otros servicios de nube pública o privada. GBM ofrece la solución hiperconvergente de Lenovo, ThinkAgile HX, la cual consolida servidores, almacenamiento de información y virtualización en una única estructura virtual, que se administra fácilmente en “scaleout” clusters a través de una única interfaz. Cada clúster de la solución es escalable y está compuesto por nodos de alto rendimiento, denominados   “appliance”.   Estos   dispositivos estilo “appliance” vienen completamente integrados, probados y configurados, de manera que se pueda acelerar drásticamente el tiempo de comercialización y reducir los costos de mantenimiento de la infraestructura. La solución permite agregar (o eliminar) rápidamente capacidad de cómputo y almacenamiento, un nodo a la vez. Los nodos recientemente agregados son descubiertos instantáneamente por el cluster y pueden ser agregados en cuestión de minutos. El portafolio Lenovo ThinkAgile HX está compuesto por ocho diferentes appliances, agrupados en cinco categorías. Cada uno está optimizado para atender los requerimientos del negocio con robusta escalabilidad para proteger la inversión: HX1000 diseñado para cargas de trabajo ligeras o medianas (aplicaciones empresariales y VDI) y optimizado para entornos de sucursales, oficinas remotas (ROBO) y destino de replicación. HX2000 diseñados pensando en la mediana empresa bajo un esquema de crecimiento controlado. HX3000 diseñados para cargas de trabajo intensivas (aplicaciones empresarias y VDI). Ofrecen modelos con gran densidad de rack, all-flash y soporte a GPU. HX5000 diseñados para cargas de trabajo con amplio requerimiento de almacenamiento (Big Data y aplicaciones empresariales). HX7000 diseñados para cargas de trabajo de alto rendimiento (aplicaciones de empresa y bases de datos) y están optimizados para funcionamiento con E/S intensiva. Los servidores de Lenovo mantienen la posición #1 en confiabilidad con más de 80 récords mundiales en benchmarks de rendimiento. Por su parte, Nutanix es el software de hiperconvergencia líder del mercado. En adición, ThinkAgile HX ofrece una amplia opción de plataforma, integración de  gestión, y elección de hipervisor. Lo anterior, junto con los servicios profesionales y gestionados de GBM, proveen al mercado una sólida oferta de gran valor.  

Bienvenido a la era del trabajo intuitivo

01 Noviembre, 2018 | En el actual entorno de negocios, donde las expectativas de los clientes cambian constantemente y la disrupción se acelera, las organizaciones con mayor oportunidad de sobrevivir y ser competitivas en el mercado son aquellas con agilidad digital, es decir, aquellas que entienden y reaccionan rápidamente a las oportunidades y retos de la transformación digital. La fuerza laboral es un componente crítico para alcanzar esta agilidad, ya que las organizaciones deben ser capaces de capturar los insights del mercado, tomar decisiones informadas con base en el análisis de estos insights y actuar de manera rápida. Para ello los esquemas de trabajo necesitan ser reinventados y esto solo es posible cuando se cuenta con las herramientas adecuadas para que la colaboración entre los equipos de trabajo sea ubicua, intuitiva y atemporal, capaz de insertarse de extremo a extremo en los diferentes flujos productivos. El estado final deseado es aquel en que los miembros de un equipo se sienten inspirados para dar lo mejor de sí mismos en cada interacción. Cisco, líder en el mercado de colaboración por más de 15 años, está marcando el comienzo de esta nueva era en el trabajo, la era del trabajo intuitivo, con el reciente anuncio de su plataforma unificada de colaboración, que provee una experiencia única en donde la tecnología pasa a un segundo plano y facilita el flujo de trabajo natural en lugar de oponerse a él. Cisco está consolidando toda su suite de productos y servicios de comunicaciones bajo el paraguas de Cisco Webex, una plataforma de nube abierta, flexible e inteligente para los equipos de trabajo, que habilita el crecimiento de los negocios sin comprometer la seguridad o el desempeño.   Este anuncio tiene una gran relevancia en América Latina, ya que es una región en donde la agilidad digital es un concepto apenas incipiente y existe aún una alta dependencia de las reuniones presenciales. Las organizaciones siguen atadas a estructuras regidas por organigramas poco flexibles y los espacios de trabajo son obsoletos y no fomentan la innovación, la colaboración, ni la atracción o retención de talentos. A continuación, les invito a conocer los cinco puntos más relevantes del anuncio. Cisco Webex Meetings: Para las organizaciones que tienen un flujo de trabajo marcado por las reuniones, el servicio de conferencias web más seguro y más usado en el mercado, ha sido renovado y ofrece ahora una mejor experiencia para el usuario, 100% centrada en video y muy fácil de usar; empezar las reuniones con un solo botón, es hoy una realidad. Para los usuarios más frecuentes, está también ya disponible la app de Webex Meetings para desktop, que permite conectarse de forma más rápida a las reuniones y tener una vista de todas las juntas calendarizadas. Cisco Webex Teams: Uno de los grandes cambios de la era del trabajo intuitivo, está en las herramientas de escritorio;  los usuarios pasan menos tiempo en el correo electrónico y más tiempo en las aplicaciones de colaboración en equipo. Para las organizaciones que quieren tener una profunda integración de su flujo de trabajo con equipos ágiles y flexibles, nuestra aplicación Webex Teams, antes conocida como Cisco Spark, es ahora también un cliente de reuniones completo, capaz de unirse y participar en las reuniones de Webex Meetings de manera más natural y rápida, incluso sin necesidad de un número de conexión de llamada, sin código de host y sin número de participante. Webex Share: Una de las mayores frustraciones para los usuarios es la dificultad para compartir contenido en una sala de conferencias. Con Webex Share, los usuarios pueden ingresar a cualquier sala y compartir su pantalla de forma inalámbrica con un solo click. De esta forma Cisco busca expandir la experiencia única del usuario a cualquier sala, sin importar su tamaño o equipamiento, facilitando la adopción ya que la usabilidad es simple e intuitiva. Webex Share estará disponible para la venta en noviembre de 2018. Asistente Virtual de Webex: La incorporación de la Inteligencia Artificial (AI) a las herramientas de colaboración es hoy una realidad, permitiendo a los usuarios “dialogar”  con  los  dispositivos  usando  su propia voz, para realizar las tareas más comunes como comenzar una reunión, llamar a una persona, buscar una presentación, entre otras. Esta funcionalidad ya está siendo probada en algunos de nuestros clientes, con el objetivo de obtener sus comentarios antes del lanzamiento al mercado.  Collaboration Flex Plan: La mejor forma de poner a disposición del mercado las innovaciones mencionadas en los puntos anteriores, es facilitando el proceso de compra y adopción, flexibilizando las opciones y adaptándolas al modo de despliegue de cada organización. Para ello Cisco creó el Collaboration Flex Plan, que ofrece mucho más valor al cliente incluyendo los servicios de meetings, calling y teams en una sola suscripción basada en usuarios nombrados, activos o incluso bajo el esquema de acuerdo global, Enterprise A. El nuevo Flex Plan permite a los nuevos clientes y a los ya existentes comprar únicamente los servicios que necesitan hoy,  con  la  flexibilidad de ir adicionando más a medida que la adopción crece, protegiendo las inversiones ya hechas. También incluye modelos de implementación tanto en la nube como en sitio, facilitando la transición de los clientes a la nube y permitiendo que se beneficien de todo el valor del portafolio. En esta era de los equipos de trabajo, las organizaciones deben reinventar su forma de trabajar para ganar la agilidad digital que les permita permanecer en el mercado. Cisco cuenta con las herramientas para transformar los esquemas de trabajo sin perder de vista que independientemente de lo inteligente que la tecnología pueda ser, ésta no reemplaza a los seres humanos, sino que los libera para crear, para innovar y para desarrollar al máximo su potencial.

El rostro femenino en el liderazgo de las TIC’s de Costa Rica

01 Noviembre, 2018 | Desde el inicio de la sociedad, el papel de la mujer ha tenido una participación en cierta medida ambivalente, pues por un lado era quien estaba más tiempo en casa y generaba por necesidad más ideas innovadoras como respuesta a sus necesidades. Sin embargo, conforme la sociedad se iba estructurando bajo patrones más patriarcales su papel en las decisiones ha sido relegado y se ha tornado más como espectadora. En el siglo XVI Eva Ada Lovelace, llamada la primera programadora (Casado, 2012), tuvo que exponer sus aportes desde la perspectiva de ayudante, ya que para la época no era permitido su papel protagónico. En Costa Rica, no fue sino hasta el siglo anterior, que en la Universidad de Costa Rica se empezó a abrir camino en el sector de las TIC’s en el ámbito docente y fue una mujer quien de manera visionaria trajo al país una nueva perspectiva tecnológica. Después de la década de los 70’s las TIC’s han revolucionado el mundo al punto que ahora nos encontramos en la era de la digitalización, lo que muchos llaman la industria 4.0 o la cuarta revolución industrial. La democratización de las telecomunicaciones en muchos países y una mayor accesibilidad a los dispositivos inteligentes están cambiando el mundo en todos los sectores y como se puede ver, son las TIC’s las propulsoras de este cambio. Esto quiere decir que todas las industrias en todos los países se afectarán de una u otra manera. Según Serrabou (2017) con la incursión de la cuarta revolución industrial y con la digitalización, solamente en México se abrirán 2 millones de nuevas plazas de trabajo, sin embargo, se eliminarán otras fuentes de trabajo. Puntualmente para Costa Rica, según una investigación hecha por el semanario “El Financiero” basado en un estudio de la firma Mckinsey (Pérez, 2017), se estima que el impacto será de 475.000 puestos de trabajo, según datos de la CCSS. La digitalización podría impactar 52% de las ocupaciones actuales, ya que muchos puestos se automatizarán y en todo el proceso se requerirá solamente de uno o dos empleados. Este riesgo de reemplazo no solo impacta a los puestos más operativos, según el mismo estudio de Pérez (2017) se indica que en Estados Unidos 5% de los gerentes están en riesgo, el mismo porcentaje de científicos e intelectuales y un 5,5% de técnicos y profesionales de nivel intermedio. Esto lleva a replantear modelos actuales de inserción de las mujeres en el sector de las TIC’s y especialmente en puestos de liderazgo, de manera que el impacto en la sociedad a nivel económico y social no sea mayor. Ahora bien, a pesar de que en Costa Rica se han tenido avances importantes en la mejora de la calidad académica de las carreras relacionadas a las TIC’s, lo cierto es que la cantidad de mujeres en puestos de liderazgo es sumamente bajo pese a los esfuerzos que se han realizado.  Dados los desafíos que tenemos entre manos, se procedió a investigar el tema hace cuatro años. El estudio tenía como objetivo enriquecer la perspectiva del género en el ámbito de las TIC’s y su liderazgo, así como evidenciar posibles problemas con el fin de promover una mayor participación del género en la industria y proponer un modelo que provea mecanismos que permitan mayor participación bajo la perspectiva de igualdad como individuos con las diferencias que nos caracterizan y que finalmente son necesarias para una complementariedad sana y exitosa para los individuos, empresas y sectores empresariales, gubernamentales y sociales. Esto porque el individuo es parte de un ecosistema que necesita ser equilibrado y adaptativo a las necesidades y cambios constantes.   A nivel general se encontraron mujeres muy auto empoderadas, la gran mayoría de ellas obtuvieron puestos de liderazgo en tempranas etapas de sus carreras. Se pudo observar una clara consciencia de la necesidad de mantenerse actualizadas, el deseo de poder desarrollarse en sus distintos puestos y una alta capacidad de resiliencia a través de los años ha sido determinante. Un aspecto que se encontró como común denominador es que todas las mujeres han sabido manejar las oportunidades que se les han presentado en su vida profesional y como lo indica Miller (2017) han arriesgado más y no se han preocupado por cumplir al 100% todos los requerimientos de los puestos antes de aplicar. Sin embargo, su trayecto ha sido muchas veces con apoyo parcial de la familia o bien de la familia de su esposo. Este hallazgo se encuentra muy alineado con el reporte realizado por la firma norteamericana de consultoría McKinsey (Mieszala, 2007) donde se reporta que la mujer a nivel mundial tiende a tener un doble rol en su casa y en la oficina y que el apoyo en las labores de la casa sigue siendo disímil a través de las diferentes culturas. Se encontró que las mujeres tienen que luchar para ganarse un lugar dentro de los círculos gerenciales masculinos y para esto debe hacer un esfuerzo extra para demostrar su capacidad y que su desempeño se valore. Se pudo constatar que, entre más alto es el nivel ejecutivo, el esfuerzo es mayor, pues muchas veces los círculos de toma de decisiones son en lugares socialmente no aceptados para las mujeres o bien en horarios extendidos que están en contraposición del segundo rol que tienen en el hogar. El papel del gobierno es sumamente relevante con respecto a políticas públicas, programas de educación de la población y atracción de las mujeres a las TIC’s. Por esta razón se requiere una meta país con el fin de definir estrategias no politizadas que unifiquen esfuerzos tanto gubernamentales como privados. Ya que con el cambio de gobiernos algunas iniciativas y esfuerzos quedan desestimados. Sobre este tema, el gobierno requiere que el observatorio propuesto no tenga ninguna influencia política. Este organismo debe investigar y proponer a los entes ejecutores las pautas que lleva la industria, con el fin de que estos últimos los lleven a cabo y brinden rendición de cuentas periódicamente al gobierno y a los ciudadanos. No basta con buscar más inversión extranjera directa si no se cuenta con la arquitectura tecnológica y social que responda a las demandas del sector. Con respecto al tema educativo se encontró que es indispensable una reforma pedagógica que incorpore el pensamiento matemático, así como el emprendimiento. La muestra indica que las mujeres no encontraron necesario mentoría o coaching, pero sí consideraron importante una mayor capacitación tanto técnica como administrativa y de gerencia. Sin embargo, se recomienda profundizar la investigación en este tema, pues no queda claro si no reconoce como necesario por falta de recursos, por falta de conocimiento del aporte que da este apoyo o bien por otra razón que únicamente por medio de una investigación se logrará conocer la causa raíz. Un hallazgo relevante ha sido que para las líderes entrevistadas la educación pública no fue suficiente y se recurrió a la educación mixta o bien privada. Queda claro entonces que la incorporación de la mujer no puede seguir en sus hombros únicamente, es indispensable un proceso conjunto, integrado y sistemático que permita la apertura de oportunidades más igualitarias; fortaleciendo así la competitividad del país.  

Reglas de oro para el email

01 Noviembre, 2018 | Los colaboradores de las empresas invierten en promedio la cuarta parte de su semana de trabajo revisando y contestando emails, y a pesar de que estamos siempre atentos a la tecla de responder, es necesario revisar las reglas para eso. Debido al volumen de mensajes que leemos y escribimos, podríamos estar más propensos a cometer errores, y esos errores pueden tener serias consecuencias. Incluya el asunto claro y conciso. Ejemplos de un buen asunto son “la fecha de la reunión cambió”, “pregunta sobre su presentación”, “sugerencias  a  su  propuesta”.  Los  destinatarios abrirán el email basados en la línea de asunto. Escoja uno que le indique al lector que usted le está enviando preguntas o asuntos del negocio. Que sus emails sean cortos. No intimide a los destinatarios con mucho texto. Su mensaje debe ser fácil de leer. Si el email se va a extender, es mejor que incluya un adjunto. La puntuación es importante, en los emails también. Las comas, puntos, guiones y punto y coma – todos existen por una razón: hacen que sea más fácil entender el significado de una oración. No haga la vida más difícil y menos interesante para los destinatarios de sus emails. Preste alguna atención – no demasiada – a la puntuación. Utilice los acrónimos con cuidado. ¿FYI? No todos saben cada acrónimo, y estas abreviaturas no ahorran tanto tiempo, así que: - Utilice muy pocos acrónimos, y solamente aquellos que usted sabe que el destinatario conoce. - No utilice acrónimos relacionados con religión, género, raza, etc. Piénselo dos veces antes de oprimir “Responder a todos”. Nadie quiere leer correos para 20 personas, que no tienen ninguna relación con su trabajo. Ignorarlos puede ser difícil, cuando recibimos notificaciones de nuevos mensajes en los teléfonos o si distraen con alerta en las pantallas de la computadora. No envíe un “responder a todos” a no ser que todas las personas en la lista deban recibir ese email. Incluya la firma en el email. Debe darle al lector alguna información sobre si mismo. Generalmente, se estila que indique su nombre completo, posición, nombre de la empresa y su información de contacto, incluyendo un número de teléfono. También puede agregar un poco de publicidad de si mismo, pero sin abusar con frases célebres o con dibujos. Utilice el mismo tipo y tamaño de letra y color que utilizó para el email. Utilice un saludo profesional. No utilice expresiones coloquiales tales como, “chicos”, “a todos” o “amigos”. Si va a escribir casual no debe afectar el saludo de su email. “Amigos”, es una manera informal de saludo y generalmente no se debe utilizar en el trabajo.  Y “a todos” tampoco está bien.   Utilice un “hola”. También se aconseja no utilizar el diminutivo del nombre de la persona. Refiérase a “Hola Fernando”, a no ser que esté seguro de que la persona prefiere que lo llamen “Fer” Utilice los signos de exclamación apropiadamente. Si escoge usar un signo de exclamación, utilice solo uno para denotar emoción. Nos podemos dejar llevar y colocar un número de signos de exclamación al final de las oraciones. El resultado puede ser muy emocional o inmaduro. Los signos de exclamación deben ser utilizados racionalmente en la escritura. Tenga cuidado con el humor. El humor puede fácilmente perderse en la transferencia sin el tono correcto o la expresión facial. En un intercambio profesional, es mejor dejar el humor fuera de los emails a no ser que usted y el receptor se conozcan bien. También, algo que usted piensa que es divertido podría no resultar divertido para alguien más. Algo que se perciba como divertido cuando se habla puede ser interpretado muy diferente cuando se lee. Cuando tenga dudas, mejor no lo incluya. Sepa que las personas de otras culturas hablan y escriben diferente. Los errores de comunicación pueden ocurrir fácilmente debido a diferencias culturales, especialmente cuando escribimos, pues no podemos ver el lenguaje corporal de la otra persona. Acomode su mensaje de acuerdo con la cultura del receptor o de acuerdo con el conocimiento que tenga de esa persona. Una buena regla para tener en cuenta es que en las culturas de alto contexto (Japonesa, Arabe o China) quieren conocerlo antes de hacer negocios con usted. Por lo tanto, puede ser común que los asociados de negocios de esos países sean más personales cuando escriben. Por otro lado, personas de culturas de bajo contexto (Alemana, Americana o Escandinava) prefieran ir al punto de inmediato. Responda los emails, aunque hayan sido enviados a usted por error. Es difícil responder a cada email que recibe, pero debe tratar de hacerlo. Esto incluye un correo que fue accidentalmente enviado a usted, especialmente si el que envía espera una respuesta. No se requiere que prepare una respuesta, pero es bueno como etiqueta de email, especialmente si la persona trabaja en la misma empresa o tipo de industria que usted. Ejemplo de respuesta:  “sé que está muy ocupado, pero creo que este correo no es para mi, y quería que supiera para que lo pueda enviar a la persona correcta.” Revise cada mensaje antes de enviar. Sus errores no pasarán inadvertidos por los receptores del email, y dependiendo del receptor, será juzgado por cometerlos. No se confíe del autocorrector. Lea y relea su correo un par de veces, preferiblemente en voz alta, antes de enviarlo. Un supervisor quiso escribir “lamento el inconveniente”, y en vez de eso, por confiar el en autocorrector escribió “lamento el inconsciente” Agregue las direcciones de correo al terminar. No querrá enviar un email accidentalmente cuando aún no lo ha terminado de escribir y revisar, aún cuando esté respondiendo el mensaje, por precaución borre los destinatarios e insértelos cuando esté seguro de que el mensaje está listo para ser enviado. Revise dos veces que escogió el destinatario correcto. Debemos tener mucho cuidado cuando escribimos el nombre en la línea de “para”. Es fácil seleccionar el nombre incorrecto, que puede ser engorroso para usted y para la persona que recibe el correo por error. Utilice un tipo de letra clásico. “Purple Comic Sans” tiene un tiempo y lugar (¿tal vez?) pero para correspondencia, utilice tipos de letra, colores y tamaños de corte clásico. Regla de oro: sus emails deben ser fáciles de leer para los demás. Generalmente, es mejor usar tipo 10 o 12 puntos y el Arial, Calibri, o Times New Roman que son fáciles de leer. En relación con el color, el negro es la elección más segura. Cuide el tono. Al igual que las bromas se pueden confundir en la traducción, el tono se puede malentender sin el contexto; que se puede tener cuando se habla y se tienen expresiones faciales. De tal manera, es fácil que se pueda ser mas abrupto de lo que se intentó ser.   Si usted quiso decir “directo”, ellos pueden entender “enojado y brusco” Para evitar malentendidos, lea el mensaje en voz alta antes de enviarlo “si suena rudo para usted, también tendrá el mismo efecto en el lector”. Para mejores resultados, evite usar palabras negativas (“falla”, “incorrecto” ó “negligencia”), y siempre indique “por favor” y “gracias”. No existe un email confidencial, piense dos veces antes de enviar la información. Siempre recuerde lo que un exdirector de la CIA olvidó, cada correo electrónico deja una huella. Una guía básica es asumir que otros verán lo que escribió, así que no escriba nada que no quisiera que otros vieran. Una interpretación más literal: “no  escriba  nada  que  podría  ser  ruinoso  o  que pudiera dañar a otros”.  Es mejor ir a la segura.  

¿Cómo articular la transformación digital de su negocio?

22 Octubre, 2018 | El pasado martes 16 de octubre GBM participó en el Congreso Internacional de Innovación Tecnológica (CIIT) en San José, Costa Rica. Más de 500 líderes de las principales instituciones del sector público y privado en el país, se reunieron para intercambiar perspectivas de actualidad en el sector tecnología. En el marco del congreso, comparto el contexto más amplio de la Transformación Digital, así como algunas pautas para articular efectivamente la hoja de ruta de su negocio en este tema. ¿A qué nos referimos con Transformación Digital? La llamada Revolución Digital se refiere a la cuarta era industrial desde un punto de vista histórico, contando a partir de la primera revolución industrial que tuvo lugar en el siglo XVIII. Esta era se caracteriza por el surgimiento acelerado y la sinergia de tecnologías. De esta forma se genera un círculo virtuoso que permite el decenso de los costos y acelera la innovación. El progreso se acelera de forma exponencial teniendo la tecnología como multiplicador. La experiencia hace el fenómeno evidente con el surgimiento de nuevos emprendimientos y modelos de negocio, imposibles de imaginar hasta hace poco, y en algunos casos la verdadera disrupción de industrias completas. Hoy en día las compañías a lo largo y ancho del planeta se dan a la tarea de identificar y adoptar las tecnologías que tengan un mayor impacto en su desempeño. Y que les permitan transformarse en disruptores antes que ser víctimas de la innovación de un competidor. A esto es a lo que nos referimos con el concepto Transformación Digital. Tan popular hoy en día. En las palabras de mi colega Gustavo Cuervo durante el congreso: “la Transformación Digital no es simplemente la adquisición de una pieza tecnológica, es un proceso que conlleva cambios culturales y estratégicos que afectan a toda la organización y a todos los involucrados”. ¿Cuál es la realidad de su negocio hoy? Posiblemente una de las primeras acciones para iniciar un proceso de transformación será involucrar una firma consultora que brinde asesoría en el tema. Éstas enmarcan sus recomendaciones en modelos teóricos para dar estructura al tratamiento del tema. Si bien estos insumos son relevantes para diagnosticar el estado actual del negocio y encausar la toma de decisiones; es  recomendable que cuente con el apoyo de expertos en tecnología que sean interlocutores eficaces para dar acompañamiento y ejecutar iniciativas de esta índole. Con el fin de que la visión sea efectivamente aterrizada en soluciones relevantes e implementadas de manera adecuada.   Con el fin de ayudarle a responder la pregunta de la realidad de su negocio hoy, traemos a colación el modelo de Diddier Bonnet y otros en su libro Leading Digital. Los autores caracterizan tanto a compañías como sectores industriales en cuadrantes a partir de dos ejes:  -Capacidades digitales: uso de la tecnología digital para transformar la experiencia del cliente, los procesos operativos, y los modelos de negocios. -Capacidades de liderazgo: gestión de la transformación digital propiamente dicha, más allá que la simple implementación. Así se establecen cuatro categorías según la madurez en Transformación Digital. Veamos: Maestros Digitales: Compañías con alto grado de efectividad en la adopción e integración de tecnologías, lo cual les permite alcanzar múltiples ventajas competitivas que se aceleran con el tiempo. Vanguardistas: Compañías que invierten constantemente en las últimas novedades tecnológicas, sin embargo, sus múltiples iniciativas carecen de articulación, entre sí o con la estrategia del negocio. Principiantes: Compañías que por diseño o inercia no tienen iniciativas digitales relevantes, por muy diversas razones: regulación, aversión al riesgo, rezago de la industria, etc. Conservadores: Empresas muy efectivas en iniciativas de transformación digital, pero de alcance o impacto sumamente limitado, usualmente por razones de regulación. ¿En cuál de las categorías ubicaría usted su negocio y por qué razones? Entonces: ¿Cómo articular la Transformación Digital de su negocio? Desde la dimensión de las Capacidades de Liderazgo, comencemos por decir que las iniciativas de Transformación Digital deben articularse en el marco de un plan al más alto nivel estratégico en su organización, y de ahí permear hacia todas las áreas del negocio por medio de un liderazgo y un modelo de gobernanza eficaz. Desde el punto de vista de las Capacidades Digitales, los Maestros Digitales se concentran en tres áreas críticas para mantener su liderazgo: mejorar las experiencias de sus clientes, optimizar los procesos operacionales e innovar nuevos modelos de negocio.  En este contexto las siguientes son algunas pautas para articular de manera efectiva su hoja de ruta en la Transformación Digital de su negocio: 1. Céntrese en el cliente: La Transformación Digital está conducida por los consumidores. Para el momento que un cliente se engancha con sus canales, posiblemente ya ha estudiado sobre lo que anda buscando, conoce alternativas y ha pedido recomendaciones entre sus allegados vía redes sociales. Por lo que es vital mejorar la experiencia que ellos tienen con su negocio, tanto en canales físicos como en digitales. Nada más frustrante para los usuarios que encontrarse con compañías totalmente diferentes según el canal que utilicen.     2. Maximice el valor de sus datos: Los datos tienen un rol protagónico como eje para una experiencia que resulte significativa y que se traduzca en una mejora de su atracción y su retención. Muchas compañías han estado recolectando montañas de datos por años, sin haberse tomado nunca el tiempo para evaluar la calidad de éstos, o el potencial que verdaderamente tienen si se explotan con las herramientas adecuadas. 3. Asegúrese de alinear la estrategia digital con el negocio: Los equipos gerenciales están consumidos día a día por las necesidades del negocio y las urgencias que invariablemente se presentan en la operación. Por esto resulta critico brindarles el espacio y las herramientas necesarias para enfocarse de forma efectiva en la innovación y la definición de una estrategia digital que pueda ser luego diseminada a toda la organización. 4. Enfóquese en victorias rápidas: Si todo es una prioridad entonces nada es una prioridad. La parálisis por análisis es tan perjudicial en este tema como abordar iniciativas de transformación sin establecer adecuadamente los objetivos que se persiguen y los casos de uso que van a ser resueltos por medio de las tecnologías en cuestión. Maximizar capacidades actuales e incorporar de manera ágil nuevas capacidades alineadas con la visión resulta trascendental. 5. Priorice de adentro hacia afuera y de afuera hacia adentro: La voz del cliente debe ser incorporada en la estrategia digital, las optimizaciones en procesos y operaciones deben diseñarse tomando esta perspectiva en cuenta. Metodologías tales como el Design Thinking o el DataFirst permiten incorporar esta voz de manera efectiva desde el principio hasta el final del proceso. A manera de cierre, existen Maestros Digitales en cada industria y en cada sector, sin importar si un sector es tradicionalmente tendiente a la tecnología o averso a la misma. Con el paso del tiempo las ventajas competitivas de estos líderes posiblemente se aceleren y multipliquen. Le motivamos a que evalué la realidad actual de su negocio y ponga manos a la obra a su hoja de ruta de transformación digital. En este momento la pregunta no es si habrá que hacerlo o no, es un tema de cuándo hacerlo. Desde este punto de vista, recordemos el dicho de que un plan vigorosamente ejecutado ahora es mucho mejor que uno perfecto ejecutado luego.

Innovación digital para nube híbrida e inteligencia artificial

02 Octubre, 2018 | Si bien es cierto, es un imperativo para las organizaciones tomar acciones para incorporar innovación en  sus productos y servicios, al mismo tiempo éstas deben lidiar con sus limitaciones internas en torno a su presupuesto, disponibilidad de recursos y cultura organizacional, es por ello que los nuevos modelos exitosos para la innovación digital considera la incorporación de empresas externas que proporcionen una metodología de ejecución y gobierno que permita la habilitación de un circuito iterativo para el desarrollo de ideas que le permitan alcanzar una meta deseada, objetivo o resultado. Hoy la realidad de los negocios es que utilizan las capacidades digitales como un complemento dentro de su organización, sin embargo, en el futuro las empresas y organizaciones deberán transformarse completamente en un negocio digital y en donde la ventaja que no aprovechen hoy se convertirá en su desventaja futura frente a la competencia. El foco en la innovación para crear diferenciación y la renta de todo lo demás como servicio, son algunas de las posturas más comunes en las conversaciones con diferentes industrias y organizaciones, toda vez que los nuevos modelos de servicios en la nube híbrida permiten habilitar infraestructura y soluciones de una manera mucho más ágil y con capacidades para escalar en la medida que el negocio o servicio lo requiere. Generalmente podemos determinar que un negocio, cualquiera que sea, puede trasladar sus aplicaciones y servicios a la nube sin embargo dependiendo de la industria o modelo operativo esto puede o no ser una realidad.  De acuerdo con la consultora IDC, para el año 2021, el gasto empresarial en servicios e infraestructura en la nube alcanzarán los 530.000 millones de dólares y más del 90% de las empresas emplearán servicios y plataformas en la nube. Para 2019, el 40% de las iniciativas de transformación digital emplearán servicios de inteligencia artificial; para el año 2021, el 75% de las aplicaciones empresariales comerciales usarán IA. GBM es la empresa líder en integración de soluciones de tecnologías de información en Centroamérica y el Caribe, dirigida al sector empresarial y cuenta con la red de data centers más extensa de la región. Un ejemplo claro de una industria que puede hacer uso tal cual, de las ventajas de la nube, es el sector turístico, que por su naturaleza puede iniciar con un número muy bajo de recursos, sin infraestructura e inclusive sin oficinas siendo la marca de su producto el individuo y elementos tecnológicos que traiga consigo. En este sector, los componentes digitales que conforman sus servicios incluyen: servicios en la nube, aplicaciones móviles administradas en la nube e inteligencia artificial, esta última como elemento estratégico para crear nuevas experiencias a sus clientes.  Ahora bien, el resultado de esta evolución permite a este sector la capacidad de interactuar con sus clientes de forma automatizada, conocerlos mejor a través de diálogos ejecutados por asistentes virtuales, generando respuestas de valor sin importar su zona horaria, el volumen de mensajes o las pausas para almorzar. Mientras algunos sectores miran la inteligencia artificial y la nube híbrida como una amenaza, otros ven en esta la nueva forma de llegar a un mayor número de clientes, manteniendo un mismo nivel de servicio personalizado y con la capacidad de descargar un alto volumen de solicitudes en un asistente virtual para dedicarse a aquellas que realmente requieren de su atención. Sin importar el tamaño de la organización, cualquier decisión entorno a la adopción de estrategias para la innovación digital requiere de una planificación que deberá encontrarse en gran medida alineada a los objetivos estratégicos de la organización. Este plan deberá poseer una visión integral de todos los elementos que formarán parte de su plataforma inteligente de negocio y que considera diferentes áreas que son:                 Integrar al cliente: las iteraciones digitales como evolución en la cultura de gestión de clientes, desarrollando nuevos parámetros de velocidad de respuesta, nuevos métodos de decisión, nuevas reglas y en donde es necesario romper esquemas tradicionales existentes. Formación de empleados: permitiendo un alineamiento organizacional basado en objetivos específicos definidos a través de roles y responsabilidades, método de comunicación, empoderamiento de sus procesos aplicando innovación y mejora continua. Optimización de procesos: centrándose en el cliente, potenciando el valor de sus datos con soluciones y servicios para crear su ecosistema digital. Transformando su producto: con el uso de nuevas técnicas para el desarrollo de ideas ("Design Thinking"), creando historias de usuario, priorizando las mismas y cultivando la exploración a través de la prueba de hipótesis y prototipos. Hoy en día, las tecnologías y los actuales sistemas de cómputo han hecho más sencillo el comprender las expectativas de los clientes y ofrecer soluciones más apropiadas al interpretar el comportamiento humano. La Inteligencia Artificial puede en la actualidad interactuar con los seres humanos en lenguaje natural y a través de plataformas para comprender y analizar documentos escritos, audio o video, entre otros.  En la industria de la salud, la computación cognitiva será de gran ayuda para lograr la detección temprana o cura del cáncer o bien, identificar pandemias antes de que ocurran; son algunos de los escenarios que podrían facilitar la vida del ser humano. Los sistemas cognitivos pueden incorporarse en variadas industrias como salud, servicios financieros, telecomunicaciones, educación, gobierno y retail, entre otros. Realmente cualquier industria que necesite interpretar datos, ya sea que provengan de documentos en redes sociales, en repositorios de información internos o públicos, o relacionarse con clientes en su lenguaje natural, requerirá de herramientas cognitivas. A través de las soluciones cognitivas se abarcan todos tipo de segmentos desde grandes compañías, así como pequeñas y medianas.  El potencial transformador es enorme en todas las áreas de la organización, sea la atención al público, la generación de campañas, la optimización de los activos de la empresa, la gestión del riesgo, el cumplimiento regulatorio, el análisis de contratos, etc.

La ironía del servicio al cliente

27 Septiembre, 2018 | Sin duda parte del éxito en los negocios va más allá de vender buenos productos o servicios a los clientes, muchas personas además de obtener algo a cambio de su dinero/inversión, quiere una experiencia que asegure su buena decisión al adquirir el producto/servicio; en términos simples, buscan salir con una sonrisa en su rostro. Siempre que expongo acerca de la experiencia al cliente recuerdo una conversación con un gran ejecutivo, que tuve el privilegio fuera mi líder por muchos años, sobre la analogía de una aerolínea y el servicio al cliente.  Él me planteaba dos escenarios; el primero un vuelo de San José a Miami que llega a tiempo a su destino pero con una pésima experiencia durante el recorrido. Y la otra opción sería volar de San José a Miami y haber disfrutado del viaje en su totalidad, desde el check in hasta recibir las maletas en los carruseles. En ambos ejemplos se cumplió el objetivo (el famoso SLA o CX) llevar al pasajero sano y salvo a su destino ¿Pero a qué costo? El servicio al cliente, es una pieza fundamental en la relación entre empresa-consumidor. Y para alcanzar la verdadera lealtad de los usuarios, la calidad en el servicio que se les proporciona debe ser una prioridad. Si bien, a través de los años la forma en que se brinda atención a los usuarios ha ido sufriendo cambios y adaptaciones, este servicio ha recobrado un gran protagonismo desde que las nuevas tecnologías irrumpieron en los procesos de compra de los productos. Mucha de esta transformación ha sido gracias a la evolución de los canales de contacto (la famosa omnicalididad). La evolución de canales para servicio al cliente El teléfono reinó durante varias décadas como el medio por excelencia para comunicarse con el cliente. Desde un comienzo, hizo más fácil y rápida la forma de comunicarnos, acortando distancias y aumentando la satisfacción de los clientes, además de permitir una comunicación bidireccional e inmediata. Posteriormente, con la llegada de Internet, el correo electrónico permitió manifestar cualquier duda o inconveniente dejando un registro como soporte de dicha comunicación. Con el apogeo y el nivel de penetración de Internet en la vida cotidiana, las empresas y los clientes elevaron su nivel de interacción añadiendo la posibilidad de traer la vitrina de sus productos hasta la puerta de sus casas.  Posterior al Internet, el gran “boom” de los teléfonos móviles incrementó la capacidad de los consumidores para interactuar con las empresas, exigiendo respuestas más rápidas a través de múltiples canales, que ahora se encuentran al alcance de la mano. Hoy día, la comunicación de las empresas con los usuarios alcanza las redes sociales, manteniendo un trato directo y personalizado con los clientes quienes activamente manifiestan los aciertos y errores de las empresas, mismas que cuentan con la capacidad de responder y solucionar los problemas que se presentan cotidianamente. Las empresas se encuentran obligadas a maximizar su atención a través de diferentes canales, siendo congruentes en todos ellos, es decir, entregando la misma experiencia, lo que hace a la esencia de la famosa omnicanalidad. El gran “riesgo” de atender a los clientes  La “ironía” como yo lo llamo, es que podemos perder fácil y rápidamente a nuestros clientes brindando un servicio “ok” por nuestros canales de comunicación, porque el cliente quiere mucho más que un “ok”. Es claro que hoy nuestros clientes/consumidores están bien preparados, con acceso a mucha cantidad más de información que hace unas décadas, y saben lo que quieren. Ellos recuerdan una sonrisa después de su compra.  Muchos estudios de diferentes gurús a nivel internacional, predicen que los clientes estarán dispuestos a pagar incluso más por su producto y/o servicio, mientras logren esa “sonrisa “ que buscan.           Gartner en otro estudio, pero de la misma índole, dice que: “cuando se atiende a un cliente por teléfono en un contact o service center, la probabilidad es 4X a que después de la llamada el cliente considere cambiar de producto o servicio dada la mala experiencia o poca satisfacción que tuvo durante el llamado. Incluso los clientes prefieren autogestionar sus propósitos a través de los canales disponibles de servicio”.      De acuerdo a un estudio hecho por Customer Experience Index 2017 de IBM, 45% de las marcas se tardan más de 24 horas para responder preguntas enviadas por sus clientes a través de las redes sociales o llegan a no responder. Otro estudio muestra que en 2020, 85% de todas las interacciones con los clientes será hecha sin la necesidad de contacto humano. Esto va muy alineado a la tendencia que el cliente demanda su servicio o producto cuándo (hora) ellos dicen, cómo (autoservicio) ellos dicen, dónde (canal de atención)  ellos quieren. La omnicalidad le ayuda a atender dónde y cuándo ellos quieren, pero tal vez no como ellos quieren.  El servicio al cliente enfrenta nuevamente un reto de reinventarse. Hoy día debemos estar atentos a los cambios en el comportamiento de nuestros clientes y actuar rápidamente para ajustar rutas y estrategias. Esto es complejo hacerlo, con las soluciones que actualmente tienen muchos de los centros de servicios.  Agentes virtuales, una manera de cumplir con los nuevos requerimientos de nuestros clientes Los agentes virtuales o conocidos también como agentes cognitivos son una solución que permite a las empresas construir un agente virtual para atención al cliente, flexible y fácil de configurar, adecuado a las necesidades de los negocios. Esta gran innovación para aquellas empresas que cuentan con centros de servicio “Contact Centers”, promete una experiencia de autoservicio y conversación con capacidades cognitivas. Los agentes cognitivos son entrenados para reconocer las necesidades de los clientes y proveer una respuesta fácilmente personalizable. Tiene diálogos en lenguaje natural y se beneficia de las capacidades avanzadas de machine learning para que el sistema continúe aprendiendo.  Este tipo de soluciones definitivamente transforma el modelo tradicional de cómo atender a nuestros clientes. Más cuando existe este tipo de datos según IBM, que el 80% de las llamadas repetitivas de nuestros clientes, pueden ser resueltas a través de agentes cognitivos. Los asistentes virtuales no están para sustituir a las personas del Contact Center, su fin es habilitar tiempo valioso para que los agentes puedan dedicarse a atender temas de más valor y buscar esa lealtad del cliente.  Tengamos en cuenta que nuestros clientes en los próximos 10 años actualmente tienen entre 10 o 15 años de edad y debemos estar listos para atenderlos  hoy como ellos necesitan ser atendidos. Si tenemos en cuenta que, según un estudio de Accenture, los millennials serán una parte predominante del público atendido en 2020-2025 y que ellos demandan eficiencia en sus gestiones con las empresas, es seguro que estas nuevas soluciones sirven precisamente para preparar a los Contact Center para atender a ese cliente del mañana.

Inteligencia Artificial: Una tendencia que no es pasajera

19 Septiembre, 2018 | Hace no muchos días, el máximo representante de uno de los monstruos de Silicon Valley dijo: “la Inteligencia Artificial es una de las cosas más importantes que la humanidad está desarrollando en este momento. Es quizás más importante que lo que la electricidad o el descubrimiento del fuego representaron en su momento”. Una aseveración que quizás no debería tomarse a la ligera, considerando el salto cualitativo en el estilo de vida que el fuego y la distribución eléctrica para usos prácticos nos dieron. Otros gurús tecnológicos apremian a sus pares y a foros de expertos a tomar acciones inmediatas para regular el uso de la Inteligencia Artificial y lo que deberíamos permitirle alcanzar, a fin de proteger a la humanidad de escenarios donde las máquinas toman control de nuestras vidas. Sea o no acertado lo que estos señores mencionan, es innegable que la Inteligencia Artificial está dando de que hablar, generando muchísimo furor y expectativa a nivel global, y las razones son muchas y abarcan casi todas las aristas de la sociedad y los negocios. Dicho esto, ¿qué es Inteligencia Artificial? La podemos definir como la rama de la ciencia de la computación que busca emular la forma en que el ser humano entiende, procesa y razona sobre una base de conocimiento dada (es decir, datos), con el fin de generar resultados que permitan a las personas tomar decisiones. Una de las habilidades más destacables de la Inteligencia Artificial es la de analizar y entender datos no estructurados, a diferencia de los otros algoritmos usados en informática. Un dato no estructurado es toda aquella pieza de información sin un modelo predefinido o que no tiene una organización sistemática delimitada. Como ejemplos podemos nombrar:  fotografías, videos, artículos periodísticos, documentos en pdf, libros, correos electrónicos y clips de audio. Actualmente, se estima que el 80% de toda la información disponible corresponde a datos no estructurados, lo cual nos lleva a identificar inmediatamente la importancia de tener herramientas que nos permitan desgranar toda la información que se encuentra cruda pero al alcance.    La Inteligencia Artificial, por supuesto, también puede procesar datos que tienen un modelo definido y provienen de una fuente específica o un campo determinado en un registro. A éstos les llamamos datos estructurados. Ejemplos de ellos son: hojas de cálculo, registros, bitácoras y, en general, bases de datos y archivos de texto con columnas, títulos y etiquetas para un rápido acceso. El efecto “bola de nieve” de los datos Volviendo a los datos no estructurados, ¿quién es el mayor creador de este tipo de información? La respuesta es: nosotros mismos. Gracias al acceso que tenemos a generadores de contenido como teléfonos inteligentes, tablets, wearables y otros gadgets, cada día se generan 2.5 quintillones de bytes de datos digitales... ¡cada día! Para poner esto en términos fáciles de interpretar, es la cantidad de bytes que se necesitaría para llenar 36 millones de iPads. Está de más decir que esa avalancha de información es imposible de manipular para cualquier ser humano u organización sin la ayuda de un set de herramientas con una altísima capacidad de procesamiento, y es en este punto donde la Inteligencia Artificial juega un papel ineludible que va a transformar la forma en que nos comunicamos, tomamos decisiones, nos divertimos y hacemos negocios. En resumen, la Inteligencia Artificial nos permite clasificar, analizar y tomar decisiones de toda índole, con base en información de tres categorías: audio, texto e imágenes. Las empresas deben tomar cartas en el asunto ¡ya!  Voy a evitar la tentación de llenarlos de datos de estudios, encuestas y cifras y les voy a contar parte de lo que he podido rescatar. Tanto en Latinoamérica como en el resto del mundo, más del 70% de los tomadores de decisiones en las empresas (llámese C-Level o Mid-Management) saben que deben invertir en soluciones de Inteligencia Artificial, tienen planes de hacerlo o ya lo están haciendo activamente. Gartner, McKinsey & Company, World Economic Forum y Harvard Business Review, por mencionar algunos, publican amplia información sobre este tema, por lo cual los invito a consultar dichas fuentes y que corroboren lo que les digo por ustedes mismos. Ahora, muchas de estas empresas caen en la categoría de “early adopters” y cumplen con ciertas características como: ser transnacionales, tener madurez digital, dar prioridad al crecimiento por encima del ahorro, tener capacidad de adopción de múltiples tecnologías y contar con un C-Level que apoya las iniciativas de IA. En Latinoamérica tendemos al escepticismo y ser pioneros en ocasiones nos asusta; preferimos esperar y ver qué sucede con los que deciden dar el primer paso. Sin embargo, las organizaciones deben evitar sucumbir a la tentación de “ver los toros detrás de la barrera”, ya que puede ser una postura peligrosa que lleve a crear vulnerabilidad frente a la competencia (existente y emergente) y a los clientes. No es necesario adoptar una estrategia agresiva de implementación de soluciones basadas en IA, pero sí que se debe hacer un diagnóstico hacia adentro, evaluar las opciones, tendencias y empresas expertas en IA y empezar a dar pasos hacia la vía de la automatización, por muy pequeños que sean. Considero que la imagen anterior es sumamente ilustrativa, porque permite ubicarse en la relación beneficio / tiempo de cualquier empresa, extrapolada con el momento en que emergen nuevas tecnologías que nos afectan y llegan a convertirse en norma de mercado. Sería bueno preguntarse: “¿en qué punto está mi empresa y adónde estamos ubicando la posición de la Inteligencia Artificial?” Encontrar la receta ideal La Inteligencia Artificial no es una varita mágica que trae resultados y dispara los KPIs por sí sola. Para que un proyecto o solución con IA sea exitoso, debe haber una conjunción de ingredientes que van desde un adecuado levantamiento de requerimientos, procesos robustos, adopción de una estrategia digital y una cultura organizacional que permita llevar las implementaciones a buen puerto. Adicionalmente, se debe considerar el matrimonio natural que existe entre la Inteligencia Artificial y otras ramas tecnológicas como IoT, Blockchain, RPA, analítica de datos, robótica y muchas tantas más. Al final, todo se resume en buscar los mecanismos para sacar provecho de la gran cantidad de datos que se encuentran disponibles para capturarlos y utilizarlos para tomar decisiones bien fundamentadas. La adopción de la Inteligencia Artificial debe ir orientada hacia discernir cuáles son los casos de uso donde se añaden herramientas que mejoran o eficientizan las tareas de los trabajadores de la empresa, al mismo tiempo que se optimizan o eliminan los procesos, ojalá transversalmente en múltiples áreas de la organización. Antes de pensar en Inteligencia Artificial como un todo, las empresas deben entender cuáles son sus puntos de dolor y dónde existen oportunidades de mejora. Esto se logrará con un equipo multidisciplinario y comprometido, ya sea a lo interno de la compañía, con un aliado estratégico - tecnológico o una mezcla de ambos. La Inteligencia Artificial ya llegó y no se va a ningún lado ¿Qué esperar como sociedad y como fuerza laboral? Me atrevería a decir que un tercio de los artículos que salen publicados sobre la IA, se enfocan en subrayar cómo la difusión de esta tecnología va a eliminar millones de puestos de trabajo en un futuro no muy lejano. Recordemos que la automatización de labores se ha materializado en diferentes etapas de la humanidad, como durante Revolución Industrial y más “recientemente” con la adopción de los microcomputadores en prácticamente todas las etapas de una cadena productiva. ¿Se vieron millones de empleos perdidos gracias a esto? No, pero sí se dio una adaptación paulatina para adquirir nuevas capacidades y el trabajo físico cedió su lugar a habilidades más enfocadas en la resolución de problemas. Claro está, no podemos descartar la vulnerabilidad de ciertos puestos ante la adopción de la IA en las empresas, principalmente en logística, agricultura y manufactura, pero mi opinión es que, en términos generales, la tecnología no nos va a desplazar en el campo laboral, sino que va a potenciar nuestra productividad y nos va a ayudar a adquirir o fortalecer habilidades que no explotamos por falta de tiempo. Recuerde cuántas veces se debe haber dicho a sí mismo o ha escuchado en los pasillos de su empresa: “me gustaría poder enfocarme más en decisiones estratégicas y menos en actividades operativas”. Siguiendo con la idea anterior, me gustaría exponer algunos ejemplos más ilustrativos: El abogado que tiene a su disposición un asistente virtual legal con capacidad de procesar millones de documentos de litigios, le hace recomendaciones y le evita invertir horas de su tiempo en investigación, permitiéndole enfocarse en armar su caso basado en cantidades enormes de datos que de otra forma no habría podido procesar. El abogado sigue siendo necesario, pero su tiempo se invierte más eficientemente y puede atender más clientes para su firma. El obrero de minería que, ante la duda sobre cuál herramienta es la indicada para perforar en determinadas condiciones, consulta por voz a su smartphone qué pieza debe acoplar y obtiene respuesta con la imagen, dimensiones y características de la misma. El obrero no se vuelve imprescindible y evita cometer errores costosos y potencialmente mortales. El reclutador de personal que, en vez de leer, clasificar y desechar cientos de solicitudes de empleo, ingresa a su portal de reclutamiento y cuenta con una sugerencia para una terna de candidatos a ser entrevistados. El reclutador no deja de existir, pero se enfoca en convocar candidatos que se ajustan a lo que la empresa busca para un determinado puesto. El CEO que le solicita a su Asistente Virtual Inteligente que le muestre los dashboards actualizados mientras espera poder mover su vehículo en una congestionada vía. El CEO nunca va a ser imprescindible pero le va a encantar poder tener la información cuando la requiera. Casos de uso como estos son incontables. El punto al que quiero llegar es que no debemos ver la inclusión de la Inteligencia Artificial en nuestro entorno de trabajo como una amenaza, sino como una oportunidad de aprovechar nuestras capacidades intelectuales y cognitivas en tareas más gratificantes para nosotros y nuestro empleador. Si esto no es del todo tranquilizador, supongamos que se cumple lo previsto por muchos expertos, y para finales de la próxima década la Inteligencia Artificial ya es capaz de superarnos en traducir texto, escribir artículos y operar vehículos en las carreteras de forma totalmente autónoma. Van a haber aspectos en los que las máquinas todavía no van a poder superarnos y dudo que sea algo que nuestra generación pueda presenciar. Estas capacidades son las tan comúnmente llamadas “habilidades blandas” o “soft skills” como: pensamiento crítico, creatividad, adaptabilidad de nuestro cerebro al cambio, negociación, toma de decisiones, empatía y habilidad de comunicarnos con nuestros pares. La humanidad debe dar un giro hacia fortalecer ese set de habilidades que ya son inherentes a nosotros, para que, en conjunto con la Inteligencia Artificial, logremos avances realmente asombrosos y cambiemos nuestro destino para bien. Se dice que más de la mitad de los puestos trabajos del futuro aún no existen; pero lo que se requiere para desempeñarlos ya lo traemos desde que nacemos. No podemos tapar el sol con un dedo y negar que Watson de IBM nos supera en capacidad de almacenamiento, procesamiento y análisis, pero sí debemos estar claros en que tenemos que preguntarnos, como sociedad, si la definición actual que tenemos de la inteligencia humana es la correcta.

La integración en la era de la transformación digital

25 Junio, 2018 | La transformación digital está siendo impulsada por metodologías y herramientas que permiten a empresas tradicionales innovar como una Startup y escalar los desarrollos a la nube. Design ftinking, Producto Mínimo Viable (MVP), DevOps, Agile, microservicios, API Economy, son todos conceptos muy de moda y que están incrementando dramáticamente la velocidad de implementación de ideas.  Uno de estos conceptos, el de Microservicios, está en la mente y planes de los CIOs de las empresas más importantes, debido al impacto que tiene en la arquitectura actual de las empresas y en los resultados de las iniciativas de transformación digital y de innovación. Microservicios La arquitectura de microservicio se centra en dividir las aplicaciones en silos en pequeños componentes que luego se pueden cambiar de forma independiente, creando una mayor agilidad y una escalabilidad elástica. Los microservicios permiten hacer un mejor uso de la infraestructura nativa de la nube y administrarse de forma más simple, proporcionando la resilencia requerida por las aplicaciones en línea 24/7. También mejora la propiedad de acuerdo con las prácticas de DevOps mediante las cuales un equipo puede realmente asumir la responsabilidad de un componente de microservicio a lo largo de su ciclo de vida. Las discusiones de la arquitectura de microservicio a menudo parten de la búsqueda de formas alternativas de crear aplicaciones, pero las ideas centrales que lo respaldan son relevantes para todos los componentes de software, incluida la integración. Los “runtime” de integración han cambiado drásticamente en los últimos años, y ahora permiten una orquestación de plataforma automatizada, escalamiento elástico, integración y despliegue continuos, y generalmente fomentan buenas prácticas de software como el desacoplamiento, ya sea como parte de la construcción de una aplicación o la integración. Los patrones modernos de “integración ligera” proporcionan contenedores especializados y ajustables, que ofrecen agilidad, escalabilidad y flexibilidad mejoradas, y se ven muy diferentes a los patrones de Enterprise Service Bus (ESB) centralizados del pasado. La mayoría de las empresas que implementaron Enterprise Service Bus con el Integration Bus de IBM desconocen que sus inversiones están ahora más vigentes que nunca, y que ya poseen ese “runtime” para “integración ligera” que les permite acelerar sus desarrollos para transformación digital. IBM Integration Bus – un “runtime” de integración ligero para transformación digital. IBM Integration Bus (IIB) ha cambiado significativamente desde los días de SOA. IIB ofrece ahora un “runtime” de integración extremadamente ligero con soporte de primera clase para protocolos modernos como REST y está completamente alineado con las necesidades de implementación nativa de la nube. Algunos de los cambios en el IIB que tienen mayor impacto para transformación digital: “Runtime” de integración rápido y ligero. El “runtime” de IIB se ha reducido drásticamente en los últimos años. La instalación esmuysencillayel“runtime” en sí puede detenerse e iniciarse en segundos, sin embargo, ninguna de sus funciones ha sido sacrificada. Es totalmente razonable considerar la implementación de un número muy pequeño de integraciones en un “runtime” de IIB y ejecutarlas de manera independiente. Virtualización y “contenerización”. IIB se ejecuta en contenedores tipo Docker como una verdadera aplicación nativa de la nube con una arquitectura adaptada para su uso en tecnologías de “containers” bajo un framework de Kubernetes. “Stateless”. Las instancias del IIB son “stateless”, y no dependen entre sí. Como tales, se pueden agregar y quitar de un clúster libremente y las nuevas versiones de las interfaces, o incluso el “runtime” en sí, se pueden ejecutar uno junto al otro. Esto además ayuda a garantizar la facilidad de clonación de la configuración del servidor de integración entre entornos. Listo para “deployment” distribuido.  Es posible ejecutar múltiples “runtime” en forma completamente distribuida, pero al mismo tiempo monitorearlos y administrarlos en un solo lugar. Soporte de herramientas  DevOps.  Listo  para  “Continuous  Integration   & Deployment”. Ahora su instalación está basada en archivos de secuencias de comandos y propiedades, compilación,mplementación y configuración para habilitar “infraestructura como código”. Se puede además automatizar su instalación a través de herramientas como Chef, Puppet, IBM UrbanCode Deploy, y se puede automatizar la ejecución de pruebas unitarias y el Build/Deploy con Ant, Git y Jenkins. Cloud first. IIB on Cloud ya ha estado disponible desde hace algún tiempo. Ahora además, se ha introducido una imagen estándar docker al servicio Bluemix Containers para poder implementar el IIB directamente en la nube. Sin embargo, admite una amplia gama  de  opciones de implementación, desde instancias totalmente administradas o dedicadas en IBM Cloud hasta implementaciones portables en contenedores en otros proveedores de la nube. Los usuarios también pueden optar por una instalación de software más tradicional y autogestionada, la decisión de dónde implementar la integración se puede optimizar a las necesidades del negocio. Soporte JSON / REST. La exposición de REST y las interfaces de servicios web es una capacidad central para IIB. Las interfaces se pueden definir directamente dentro de las herramientas, o crearse en base a las definiciones predefinidas de Swagger o WSDL, incluidos los aspectos clave de la seguridad. Aún puede utilizar el potente y gráfico “Data Mapper” incluso con datos JSON sin esquema. Cada vez más flexibles capacidades de integración. Independientemente de si las aplicaciones estén on premise, en la nube, o en ambas, se cuentan con las siguientes capacidades de integración que pueden ser utilizadas de acuerdo a las necesidades del negocio y de la arquitectura requerida: -Service-oriented -RESTful -Event-oriented -Data-driven -File-based (batch or real-time) Moderna conectividad. IIB sigue el ritmo de las necesidades de conectividad actuales. Ahora proporciona conectividad nativa a bases de datos NoSQL como MongoDb y Cloudant, servicios de mensajería como Kafka y aplicaciones SaaS (software como servicio) como Salesforce. Instalación basada en el sistema de archivos. La instalación de IIB  ahora no es más que colocar binarios en un sistema de archivos y ponerlo en marcha. Perfectamente adecuado para la forma en que las imágenes para contenedores como Docker se crean usando sistemas de archivos en capas. Con todas estas funcionalidades y nueva arquitectura queda claro que IBM Integration Bus es completamente adecuado como “runtime” mínimo en el espacio nativo de la nube y está listo para cualquier forma de patrón de integración liviano y acoplado a DevOps para “Continuous Integration & Deployment”. IBM APP Connect Enterprise Además de la extraordinaria modernización del IIB, ahora IBM Integration Bus Advanced será IBM APP Connect Enterprise. A partir del 30 de Marzo de este año 2018, los clientes con IIB (versión Advanced) que tengan su soporte activo, podrán hacer uso de IBM APP Connect Enterprise el cual fusiona dos grandes soluciones facilitando aún más las iniciativas de transformación digital: IBM Integration Bus V11: Maduro y flexible “runtime” de integración para transformación digital IBM  App  Connect  Professional: agrega facilidades de integración de aplicaciones en entornos híbridos con solo configuraciones sin codificación. App Connect Enterprise ofrece una plataforma para una amplia gama de necesidades de integración en una empresa digital moderna. Es ideal para las empresas que necesitan aprovechar arquitecturas “API driven”, conectar aplicaciones basadas en la nube o utilizar facilmente las tecnologías de inteligencia artificial (IA) para extender el valor y la inversión en sus datos y sistemas existentes. Entre las principales capacidades y características que incluye el nuevo IBM APP Connect Enterprise V11 están: Conectividad extendida de servicios en la nube y software como servicio (SaaS), con plataformas en la nube y aplicaciones locales. “Runtime” de integración livianos para la implementación basada en contenedores y nativa de la nube. Opciones de implementación con un equilibrio entre control, administración y presupuesto. La capacidad de crear y exponer API a través de un enfoque sin código, que se puede administrar fácilmente a través de IBM API Connect. Herramientas nuevas y simples para todos los estilos de usuarios que trabajan juntos para exponer e integrar sistemas empresariales. App Connect Enterprise V11 es el sucesor oficial para el IBM Integration Bus. Si ya es usuario de IBM Integration Bus solicite información sobre cómo aprovechar la inversión que ya ha realizado, acelerar su camino hacia la transformación digital y acceder a App Connect Enterprise.  

Realidad Digital - Una vista análoga

25 Junio, 2018 | Seguimos avanzando hacia una sociedad que busca digitalizar toda interacción; lo cual hace posible “tener más, pero poseer menos”. Esto se puede ver reflejado en un día normal de nuestras vidas: iniciamos la mañana revisando WhatsApp o Facebook para informarnos de qué ha pasado con nuestra vida social y en el país, luego procedemos a bañarnos (aún no hay un app que nos “asista” en esta tarea), abrimos el app de nutrición para ver cuál es desayuno de ese día, nos dirigimos al trabajo y le pedimos a Waze que nos lleve por la ruta con menos tráfico, ya en el trabajo abrimos Google para investigar cómo hacer el reporte que nos solicitaron mientras escuchamos un poco de música en Spotify, finalmente luego de una día arduo de trabajo pedimos la cena por UberEats y buscamos entretenernos con una serie en Netflix. ¡Vida de Reyes! Consumidores empoderados en donde podemos obtener gratis o rentado gran parte de nuestras necesidades inmediatas, lo cual evidentemente tiene implicaciones positivas y negativas en lo social, democrático, emocional, laboral, etc. Las expectativas de los consumidores nunca han sido tan altas. Es por ello, que las empresas que ofrecen productos y servicios “análogos” enfrentan duros retos para insertarse en la economía digital, ¿cómo pueden diseñarse o transformarse productos que enamoren al consumidor desde el día cero?  Las razones principales por las que los clientes se decepcionan de las experiencias digitales de los productos o servicios de compañías análogas son: no funcionan según lo que se espera, no es conveniente, es decir, no es de utilidad en el momento que se requiere, son difíciles de utilizar y/o ofrecen una cantidad de opciones innecesarias que confunden a los consumidores. Lo anterior, se debe en gran medida a que las compañías lanzan iniciativas de experiencias digitales sin entender completamente qué motivaría a sus clientes a probarlas. Para aumentar las probabilidades de éxito, las compañías deben realizar grandes esfuerzos en crear experiencias digitales que resuelvan de manera fundamental algún problema de los consumidores y no sólo hacer el problema más tolerable. No se trata de miniaturizar una página web en una app móvil, ni tampoco de replicar las capacidades análogas de la empresa en una plataforma digital automatizada de servicio, ni mucho menos de adquirir sin ningún sentido las últimas tecnologías digitales para decir que forman parte de los productos de la empresa; se trata de abrazar el punto de vista del cliente con extrema empatía para crear una experiencia digital en su contexto que resuelva su necesidad de raíz. Las empresas de la región han creando equipos de innovación que les ayuden a encontrar la “receta” que aumente las probabilidades de éxito de las inversiones realizadas en el espacio de experiencias digitales. Sin embargo, en el mundo corporativo esto no es una tarea fácil, ya que hay muchos puntos y fuerzas a tomar en cuenta como visión de Innovación, alinear expectativas, política interna, métricas, generación de ideas, conseguir y asignar presupuesto, habilitar un sandbox tecnológico, guía para innovación digital. La visión de innovación es una declaración realizada por el liderazgo de más alto nivel que está respaldando los esfuerzos digitales, en la cual deben definir con claridad si quieren encontrar nuevas fuentes de ingreso o ahorro en los costos, mejoras incrementales o modelos de negocio disruptivos, mejorar la experiencia del cliente o eficiencia operativa, en qué productos o líneas de negocio desean experimentar y finalmente si la innovación se basará en un modelo de abajo hacia arriba o de arriba hacia abajo. Es importante resaltar que aquí no hay decisiones buenas o malas, éstas dependerán de la industria y de la realidad que la empresa se encuentre enfrentando. Sin embargo, el único error es intentarlo todo al mismo tiempo. Alinear expectativas y la política interna es quizá, una de las tareas más difíciles dentro del mundo corporativo. Cada persona involucrada en el proceso de innovación (desde el C-Level hasta el Diseñador Creativo) tiene su agenda y genera su propia expectativa de lo que los esfuerzos invertidos darán como resultado. Es por ello, que se vuelve crucial, crear un ambiente colaborativo de trabajo que incluya a los diferentes patrocinadores, para hacerlos parte del proceso creativo de diseño y toma de decisiones, y con ello observar de primera mano el avance de los esfuerzos y cuáles son los resultados que pueden esperar. La innovación corporativa necesita métricas que muestren en que área de la empresa se está generando impacto, lo cual ayuda a tener acceso a recursos y apoyos. Sin embargo, medir la innovación es mucho más complicado que medir la operación tradicional del negocio; ya que la innovación por definición es exploración y experimentación, fallar no es solo una opción, sino que es parte del viaje. Mi recomendación es generar dos tipos de métricas; unas de progreso y otras de impacto. Cantidad de ideas generadas, número de startups identificados, número de prototipos ejecutados, aprendizajes generados (insights), workshops impartidos son ejemplos de métricas de progreso. A medida que las iniciativas de innovación maduran, es necesario generar y comunicar métricas de impacto que muestren de forma clara los beneficios entregados al negocio, ayudando así a una mejor y más inteligente asignación de presupuesto. Ahorros en tiempo de trámite, ahorro en costo de proceso, aumento en ventas, aumento en la satisfacción y experiencia del cliente, aumento en tráfico en canales digitales de venta, son algunos ejemplos de métricas de impacto que permiten a los esfuerzos de innovación estar alineados a la estrategia corporativa. Un “sandbox tecnológico” junto con una metodología de innovación digital les entrega a los equipos de innovación la materia prima y la guía básica para realizar su trabajo, es lo que les da acceso a las tecnologías digitales como Inteligencia Artificial, Mobile, Internet de las Cosas, Blockchain, Contenedores Docker, Analítica, herramientas para desarrollo de software (toolchain), todo en un mismo lugar. Al mismo tiempo, les entrega una forma de guiar la innovación en etapas claramente definidas para llevar una idea de cero a un prototipo que permita validar las hipótesis de valor de cada iniciativa generando aprendizaje, todo lo anterior apoyado en metodologías como Design ftinking, User Experience, Lean Startup, DevOps y Agile. En resumen, es la caja de herramientas básica para experimentar con una pequeña guía de uso y un lugar de trabajo digital. ¿Qué hace que un servicio o producto digital sea exitoso? Como un consumidor más, lo que me hace buscar una experiencia digital para sustituir o mejorar una análoga en primer lugar es invertir la menor cantidad de tiempo para obtener el producto (eficiencia), luego busco conveniencia, es decir, poder obtener el producto en el contexto que me encuentro cuando y donde lo necesito (utilidad y experiencia), luego espero que sea mucho más rápido para dar el resultado que necesito (beneficios) y finalmente espero que el producto me cueste menos (costo). Para las empresas ver el mundo a través de los ojos del cliente no es nada fácil, sin embargo, es de vital importancia ya que un equipo puede tener un gran presupuesto, mucho talento y acceso a la mejor tecnología digital del momento, pero si no cuenta con la perspectiva del cliente sus esfuerzos de innovación están destinados al fracaso. Recuerde que el objetivo es diseñar experiencias digitales que cumplan las expectativas de los clientes y no las suyas propias.  Listo o no estimado lector, hágase las siguientes preguntas: ¿Están sus iniciativas digitales realmente buscando resolver de raíz puntos de dolor o necesidades de sus consumidores? ¿La innovación digital en su empresa está siendo limitada por los canales tradicionales, sistemas legados, regulaciones y el estatus quo? ¿Qué información se encuentra analizando para entender porque sus clientes estarían dispuestos a probar y adoptar una experiencia digital con sus productos? ¿Qué experiencia digital buscan sus clientes cuando consumen sus productos? ¿Cómo le está comunicando a sus clientes los beneficios que entregan sus iniciativas digitales? Aunque son pocas preguntas las respuestas le ayudarán a definir la realidad digital de su empresa análoga.

De ciencia ficción al 2018

25 Junio, 2018 | Según Research and Markets, el mercado de asistentes virtuales inteligentes (IVA, por sus iniciales en inglés), ascenderá de los US$ 2.480 millones (en 2017) US$ 17.720 millones en 2023. El crecimiento de este mercado es atribuido en parte a la creciente aplicación de los IVAs en la automatización de los servicios de soporte al cliente. Los IVAs que se basan en el reconocimiento automático del habla (en inglés: ASR) son los que tuvieron más participación de mercado en 2016, según los analistas.  Ahora bien, esto no significa que todo negocio debe de acelerar su proceso de adopción de inteligencia artificial e instalar un Asistente Virtual Inteligente hoy mismo. Pero sí significa que todo negocio debe de empezar a considerar cómo esta revolución puede impactar su mercado, su competencia y hasta sus clientes. Para el negocio correcto, en la situación de negocio correcta, la implementación de un Asistente Virtual Inteligente es lo más estratégico que podría realizar en el 2018. Para empezar, un Asistente Virtual Inteligente podría aumentar el nivel de satisfacción de clientes potenciales, al permitirles acceso a resolver de forma inmediata sus consultas más frecuentes, mientras que el negocio administra una base cada vez más grande de posibles contactos para concretar ventas. Lo mejor de esto, es que puede estar funcionando 24 horas al día, 7 días a la semana, aún cuando el negocio no esté en su horario de operación normal.  AVI GO es un asistente virtual conversacional desarrollado por Cognitiva partner estratégico de IBM Watson, que permite a las empresas, independientemente  de  su tamaño, brindar atención inmediata a sus clientes y seguidores, las 24 horas, los 7 días a la semana. Entre sus características AVI GO incluye: La posibilidad de desplegar atención multicanal: puede instalarse de forma gratuita en sitios Web y Facebook Messenger. Módulo de Estadística: para dar seguimiento en vivo al tráfico de  conversaciones y la analítica de sentimiento de cada interacción. Personalización: permite seleccionar el color, logo, y saludo de bienvenida del Asistente Virtual Inteligente. Preguntas Frecuentes: AVI GO está pre- entrenado con las consultas más frecuentes del negocio, así como un entrenamiento base para manejar conversaciones de cortesía. Funcionalidades únicas: puede  tomar  la ubicación de tus clientes e indicarles cómo llegar a tus centros de atención más cercanos; las respuestas que brinda pueden incluir multimedia; y hasta puede manejar múltiples variantes de respuestas a la misma pregunta; entre muchas otras. Hablamos con Priscila Chaves, Customer Engagement Leader en Cognitiva, para entender qué posibilidades puede brindar este asistente conversacional para negocios pequeños y medianos en la región.  ¿Es AVI GO un Chatbot? AVI GO es un asistente virtual conversacional, que comprende la intención de una pregunta gracias a su capacidad de interactuar en lenguaje natural (NLU por sus siglas en inglés, Natural Language Understanding) – la forma en que las personas nos comunicamos – e intenta llegar más profundo a la naturaleza de una solicitud, para aumentar el grado de certeza al momento de responder.  Por otro lado, los chatbots tradicionales, operan en lo que llamamos un intercambio atómico: el usuario expresa una solicitud, la solicitud se mapea con respecto a solicitudes previamente programadas, y luego se devuelve la respuesta que fue asignada a esa solicitud pre-programada. Un ejemplo de esto sería un chatbot que funcione en el sitio web de una pizzería, el cuál interpretaría “quiero una pizza” de la misma forma que “no quiero una pizza”, mientras que un asistente conversacional podría comprender la intención detrás de toda la frase, y no solamente dejarse llevar por una palabra clave. ¿Cuál es la diferencia entre un asistente virtual cognitivo y AVI GO? Hemos desarrollado proyectos de Asistente Virtuales Cognitivos durante más de dos años, siendo pioneros en Inteligencia Artificial en la región. Ahora la empresa decide dar un paso hacia la masificación de la tecnología, llevando su “know- how” en el diseño de experiencias y entrenamiento cognitivo al mercado masivo a través de AVI GO, la primera plataforma auto- servicio de creación de asistentes conversacionales en Latinoamérica. AVI GO utiliza los aprendizajes de dos años de desarrollo de asistentes virtuales cognitivos para construir una plataforma auto-servicio que permite la configuración, personalización e instalación de un asistente conversacional de forma automatizada. La principal diferencia entre AVI GO y los asistentes virtuales cognitivos que hemos desarrollado en el pasado, es la facilidad para el cliente de crear su propia versión de AVI GO desde su computadora, sin necesidad de tener conocimientos técnicos avanzados ni experiencia con Inteligencia Artificial, lo que garantiza poder tener un asistente virtual inteligente funcional en cuestión de horas.  Por otro lado, algo que también diferencia a AVI GO de otras soluciones de asistente virtual que hemos hecho, es que al ser un producto para el consumo masivo tiene un nivel de estandarización alto para poder cumplir con las necesidades básicas de la mayoría de los usuarios, lo que limita las opciones de personalización dentro de la misma plataforma, pero aún así permitiéndole al cliente solicitar esas personalizaciones a nuestro equipo de especialistas, según sus necesidades: preguntas extra que sólo aplican al negocio, integraciones adicionales, etc. ¿Cómo fue entrenado AVI GO? Para su lanzamiento de Abril 2018, AVI GO fue entrenado para atender 50 temas de cortesía y preguntas frecuentes, que equivalen a más de 1.300 preguntas generales que aplican para una amplia gama de negocios e industrias.  Cada entrenamiento requiere un equipo multi- disciplinario que se asegure de que el sistema comprenderá intenciones con un nivel de certeza aceptable: entre ellos expertos cognitivos, lingüistas, consultores de industria. Para su debut, AVI GO fue entrenado en los temas que más generan tráfico de consultas para empresas pequeñas y medianas, por mencionar algunos: Horarios de atención y de sucursales Ubicación y direcciones utilizando geo- localización Información de contacto y general acerca de tu empresa Ofertas/promociones de productos y servicios Solicitud para hablar con un especialista Cómo obtener el detalle de facturación, fecha de pago, saldo, formas de pago, penalidades por pago atrasados Oportunidades laborales en tu empresa Opciones de estacionamiento Quejas y retroalimentación Cómo realizar un registro en línea: crear, restablecer contraseña, cambiar o cancelar cuentas de usuario Asímismo, le hemos entrenado para poder mantener conversaciones cordiales, y que la experiencia para el usuario sea lo más agradable posible, aún tratándose de un sistema artificial: Saludos de acuerdo a diferentes países y regiones Agradecimientos, cumplidos y disculpas Protección ante acoso y comentarios inapropriados ¿Cómo es un Asesor Virtual? ¿Cuál es su nombre y salario? ¿Dónde vive? ¿De dónde viene? Cuenta chistes e historias ¿Qué día es? ¿Qué hora es? ¿Se va a acabar el mundo? Respuesta a sentimiento negativos y positivos ¿Qué hace que AVI GO sea un sistema inteligente? Lo que debemos conocer acerca de AVI GO, es que el secreto de su evolución está en su entrenamiento:  Cuando se equivoque y confunda una pregunta, estará aprendiendo del error Cuando no sepa interpretar una palabra local, estará en ese momento ampliando su conocimiento Cuando amablemente solicite que le pregunten de otra manera porque no ha logrado comprender, es esa experiencia la que estará entrenándole. Esto sucede porque se entreno de forma cognitiva: mediante observación, interpretación, decisión y aprendizaje... Si les parece familiar, es porque así es como aprendemos los humanos también. Nuestro equipo se encarga de que este aprendizaje constante, aumente cada vez sus niveles de confianza al dar una respuesta, y que cada vez sean menos las preguntas que no logra comprender. Un ejemplo de esto es, que desde su lanzamiento en Abril de este año a la fecha actual, hemos “re- entrenado” a AVI GO en 1352 nuevos ejemplos de preguntas, logrando que su entrenamiento aumentará en un 209% gracias a todas las interacciones con usuarios reales que ha tenido durante estos dos meses.  Adicional, ya nos encontramos trabajando en conocimiento específico de industrias y de servicios, los cuáles estarán disponibles en la plataforma para todos los clientes activos sin costo adicional. El siguiente lanzamiento de entrenamiento incluirá 50 nuevos temas relacionados a Consumo Masivo. ¿Qué pasa si necesito que AVI GO maneje más temas específicos a mi negocio, distintos a los pre-entrenados? Es posible que el interés de algunos negocios vaya más allá del conocimiento actual de AVI GO, por esta razón, hemos diseñado dos opciones para la creación de temas personalizados a las necesidades específicas del negocio: Paquete de 5 preguntas personalizadas: USD$375, tiempo de entrega de 1 semana Paquete de 10 preguntas personalizadas: USD$600, tiempo de entrega de 2 semanas ¿Es posible realizar integraciones con otros sistemas? ¿Cuáles? Además de las integraciones nativas con plataformas de sitio web y Facebook Messenger, las integraciones con otros canales digitales son posibles y se pueden solicitar directamente desde el módulo de integraciones por un pago adicional. Algunos ejemplos de integraciones potenciales con canales externos serían: Skype, Apple Business Chat, Slack, Zendesk, Twitter, SMS, entre otros. Otras integraciones con sistemas internos podrían ser con el ERP o CRM de la empresa, u otros sistemas que permitan interactuar con datos históricos de usuarios, precios, inventarios, etc. Si una empresa Pyme ya tiene un Chatbot que tiene sus propios diálogos y respuestas: ¿ los puede cargar a AVI GO? ¿De ser posible, como lo haría? ¿ de forma automática o depende de una contraparte en Cognitiva? El entrenamiento es humano-dependiente para AVI GO, esto es lo que permite que el aprendizaje sea controlado y ajustado según las necesidades específicas del cliente. Además, cuando se permite a una máquina aprender libremente de cada interacción, es inevitable que aprenda también de nuestros prejuicios como seres humanos, y ¿qué tipo de conversaciones podrían darse si dejáramos todo a la merced de algoritmos? AVI GO utiliza tecnología de IBM Watson, y con esto, cualquier base previa de diálogos y respuestas podrían acelerar el proceso de entrenamiento, aunque no se reemplazaría. Para más información visite: https://www.asistentevirtualinteligente.com/blog/

Se acerca la era de los dispositivos

25 Junio, 2018 | Mucho se ha oído acerca del software libre y su extensión cada vez mayor a lo largo de multitud de dispositivos pero existe un compañero menos conocido de este concepto: los dispositivos físicos. La posibilidad de establecer los parámetros de fabricación de dispo- sitivos físicos y liberarlos para que sean disponibles por toda una comunidad de desarrolladores co- mienza a tomar una cre- ciente importancia. La esencia del hardware de fuentes abiertas (Open Source Hardware u OSHW por sus siglas en inglés) consiste en compartir los archivos  de diseño de una  pieza de hardware (máquina, herramienta, artículo útil u otra pieza tangible, mecánica o electrónica) para que otros puedan modificarla o fabricarla, inclusive con propósitos comerciales. Hay adicionalmente muchas otras cosas que se pueden hacer para   fomentar el desarrollo de una comunidad vibrante de gente que usa y mejora un proyecto de hardware de fuentes abiertas. Existen iniciativas concretas al respecto. La arquitectura RISC-V, creada por investigadores de la Universidad de California en Berkeley, en 2010, está abierta para que pueda ser usada por cualquiera persona para crear su propio procesa- dor. Su diseño puede ser modificado para PCs, servidores, teléfonos inteligentes y otros dispositivos. EN UN FUTURO cercano el hardware va a disminuir considerablemente su precio pero no va a hacerse completamente gratis, ya que los productores necesitan cubrir los costos de los materiales. Muchas  compañías se han interesado en usar esta arquitectura  en  sus  proyectos  internos. Nombres como Google, Nvidia o Microsoft son algunos de ellos, pero ninguno ha fabricado y vendido un chip RISC-V. Una startup llamada SiFi- ve de  hecho, es la primera que ha querido hacer negocios con esta arquitectura abierta. Tanto así que la compañía es la primera que ha convertido el conjunto de instrucciones RISC- V en un chip real. Este año la empresa anunció que había creado dos di- seños de chips que pueden ser licenciados. RISC-V comparte la filosofía que  mueve al software de código abierto y busca que las comunidades trabajen juntas para compartir, avanzar y modificar la arquitectura. Sin embargo, no es  un secreto que el código abierto ha demostrado funcionar muy bien en el lado del software, caso contrario con el hard- ware de código abierto que aún está muy reza- gado. Lo cierto es que la era de los dispositivos libres y sin costo podría estar al alcance de su mano, donde podría existir la posibilidad de no pagar por el hardware y que sea totalmente gratuito.  De acuerdo a Ricau- ter Navarro, gerente de ingeniería de Soluciones Corporativas en Compulab, en la región se han visto detalles de al- gunos fabricantes que han comenzado a pro- mocionar su producto con un código abierto pero no son muchos.  “Se han hecho reuniones a nivel mundial para homologar los requerimientos para cumplir con el open source hardware, no  obstante es un concepto que las personas aún no lo han entendido por completo”, dijo Navarro. Hardware ¿Libre, abierto o gratis?  Es importante destacar que tanto en software como en hardware las palabras libre/abierto/gratis tienen definiciones diferentes: (open- SUSE, 2013)  Abierto: El código como los diagramas de arquitectura son públi- cos, cualquier persona puede estudiarlos y en- tenderlos. Libre: Una persona puede crear copias del mismo software/hard- ware y/o mejorarlo. Gratis: Sin costo alguno, en inglés Free  se refiere tanto a libre como a gratis. Es bueno empezar aclarando que un dispo- sitivo libre no significa que es gratis, de acuerdo a las definiciones anteriores. “Hoy en día existen muchos dispositivos de hardware abierto como es el caso de un Ardui- no, sin embargo esto no implica que lo regalen o que no tenga un costo alguno, sino que por lo general son más baratos y se tiene la posibili- dad de modificarlos de ser necesario”, detalló Gustavo Arrieta, senior de Consultoría de EY Centroamérica, Pa- namá y República Dominicana. Los principales objetivos del hardware libre son que sea de acceso rápido, fácil y que sea barato, si ponemos un ejemplo, es posible armar una antena para poder tener televisión por satélite gratis, pero es necesario adquirir todos los componentes (la antena, los adaptadores, receptores y el cable coaxial) y estos no son gratis. Es por ello que Arrieta considera que en un futuro cercano el hardware va a disminuir con- siderablemente su precio pero no va a hacerse completamente gratis, ya que los productores necesitan cubrir los costos de los materiales. Actualmente  existen una gran variedad  de modelos de negocio definidos para todo el hardware “Open source”, sin embargo en su manera más simple no existe una diferencia en cuanto a un modelo de negocio de hardware privativo en el cual se vende el producto final a un precio mayor del costo de producción. Igualmente se tiene que tomar en cuenta puntos claves como fijación de precios, calidad y distribución. Siguiendo el hilo anterior, sí se puede ganar dinero con el hardware abierto como cualquier producto comerciable mediante: producir y vender, soporte, customizaciones, fundaciones, donaciones; y se tienen los mismos retos/problemas  que un modelo tradicional. Por lo que dependerá más del modelo escogido y no que el hardware sea abierto. Distribuyendo hardware de fuentes abiertas Provea vínculos a la fuente (archivos originales de diseño) de su hardware en el mismo producto, su empaquetado o la documentación. Haga que sea fácil encontrar las fuentes (archivos originales de diseño) desde el website del producto. Etiquete el hardware con un número de versión o fecha de distribución para que la gente pueda identificar el objeto físico con su correspondiente versión en los archivos de diseño. Utilice el logo de Open Hardware. Hágalo en una forma que sea claro a qué partes aplica el logo (p. ej.: Qué partes son de fuentes abiertas) En general, indique claramente qué partes de un producto son de fuentes abiertas (y cuáles no). No se refiera a hardware como de fuentes abiertas hasta que los archivos del diseño están disponibles. Si planea hacer un producto de fuentes abiertas en el futuro, mencione eso en cambio. Un mercado en evolución Hoy en día existen desarrollos de hardware abierto en campos como la electrónica, la automoción, la robótica, la impresión 3D y el Internet de las Cosas, que son utilizados por desarrolladores para responder de manera rápida y dinámica a las necesidades de los clientes. Es un movimiento que ha crecido en conjunto con toda el área de IoT (Internet de las Cosas). Actualmente existen muchas iniciativas en el uso de hardware libre como consolas de video juegos (Uzebox), servidores específicamente optimizados y a la medida (Open Compute Pro- ject) iniciativa que lanzó Facebook en el 2011 y que hoy en día comparte diseños de centros de datos entre las principales compañías mundiales como Intel, Google, Apple, Microsoft, entre las principales entre otros, impresoras 3D (RepRap), entre muchos más. “La industria del hardware abierto está  en crecimiento y se ha venido trabajando en el diseño de arquitectura abierta, que permite a los fabricantes establecer unos parámetros estandarizados y compati- bles”, dijo Rafael Arrué, gerente regional de ventas de infraestructura de GBM. Por ejemplo, la compañía IBM lanzó al mercado el procesador cuántico, que tienen una arquitectura abierta y con una gran velocidad. Para los que desarrollan soluciones y tienen ideas cuyas limitantes son trabajarlas  sobre una plataforma ya elaborada, por temas de modificar soluciones existentes y llevarlas a un nivel diferente, hay mucho que desarrollar. Pero, si los que fabrican no tienen los licenciamientos y copyright necesarios este movimiento se quedaría en un círculo vicioso sin grandes avances. Ventajas y desventajas Algunos de los principales beneficios que se ven venir con el opensource hardware se refieren al ahorro de recursos y la disminución del tiempo de productos, los cuales pueden estar analítica, big data y migración de cargas de trabajo con una altísima confiabilidad. También brinda la posibilidad de que las empresas puedan enfocarse y manejar sus servicios, y no en temas de infraestructura. Al reducirse los costos, por medio del opensource hardware es posible dedicar más recursos a la innovación y a la atención de la experiencia del usuario. Debido a que hoy día la    información crece exponencialmente, las soluciones deben tener la capacidad de analizar estos datos. “Cuanto más nos unimos, más se convierte el mundo en fuente abierta. Si soñamos con un mundo de código abierto, el mundo incluye productos físicos. Necesitamos pensar más holísticamente”, manifestó Alicia Gibb, directora ejecutiva de Open Source Hardware Association a dar una presentación magistral en la Cumbre de Red Hat en Boston. Con respecto al futuro del hardware de código  abierto,  Gibb, opinó que “con más investigaciones, las impresoras 3D podrían imprimir componentes completos o convertirse en fábricas de chips de escritorio: si las personas pueden crear chips en casa, compartirán archivos y la industria de circuitos integrados tendrá que abrirlos para seguir siendo relevantes, mientras que actualmente casi todos los circuitos integrados está cerrado.” Pero en la otra cara de la moneda, en el hardware libre los diseños son específicos y únicos, por lo que puede ser más difícil reproducirlos. Sumado a ello, a nivel de negocio puede llegar a ser desventajoso para los fabricantes ya que éste gana precisamente por lo que fabrica y al abrirlo a terceros puede permitir que otros ganen sin tener que remunerar al fabricante. “Desde el punto de vista de estrategia del negocio, se ven algunas desventajas en la parte de soporte. Por ejemplo el  tema  de  garantía del producto es un negocio adicional que tienen los fabricantes, pero en un escenario de hardware libre prácticamente no habría alguien responsable de dar tal soporte. Se- ría un punto valioso que abría que definir para que no quede en un vacío y exista alguien que pueda dar una respuesta a la hora de presentarse una determinada situación con un producto”, afirmó Ricauter. Oportunidades y retos Muchos de los proyectos actuales de hardware son abiertos pero no libres, por lo que se puede obtener el diseño sin embargo no es permitido realizar copias de los dispositivos, a como las compañías vayan creando más hardware libre y no solo abierto, este movimiento va a ir creciendo más rápidamente. Además, si se compara con el software libre, el costo de un software es el tiempo que le tomó a la persona crearlo, sin embargo en el hardware además del tiempo se debe agregar el costo de los materiales usados, por lo que uno de los principales retos del movimiento está en disminuir los costes de los materiales y que cualquier persona tenga acceso a crear sus propios productos. “Los  principales productores de hardware han visto las ventajas colaborativas de obtener archivos de diseño abiertos, ya que se puede hacer dinero innovando más rápido al lograr que más personas se unan y trabajen en el mismo proyecto”, agregó Arrieta. Empresas reconocidas a nivel mundial como Facebook, Intel, Nokia, Google, Apple, Microsoft, Dell, Rackspace, Ericsson, Cisco están involucradas en estos proyectos.  Para el CIO representaría una herramienta valiosa siempre y cuando logre armar el hardware que necesitan para lo que requiere la organización.  Es decir, al homologar un producto que vaya a usar para todos sus usuarios no estaría “casado” con una marca sino que ese hard- ware lo adquiriría con ciertas especificaciones que le darían la garantía de que va a funcionar bien y pudiese tener un sistema de multimarca o multifabricante. Es un movimiento que, según los expertos, ve futuro para aquellas empresas que pueden hacer desarrollos sobre un hardware ya hecho o darle más funcionalida- des. Pero, en los modelos tradicionales donde se adquiere un producto ya terminado, sin necesidad de agregarle nada más, no tendría mayor auge. “El modelo de open- source hardware no tendrá mayor usabilidad para las empresas mientras no sea necesario innovar, mejorar o agregar nuevas funcionalidades a la infraestructura existente”, recalcó Ricauter. Incluso, se estima que su exponencial crecimiento traería consigo un aumento en la mano de obra  capacitada  a las organizaciones que puedan enfocarse en explotar estos recursos. Un nicho de mercado con gran potencial son las soluciones para celulares, donde cada vez más jóvenes se animan a programar aplicaciones, lo que se podría replicar con el hardware sobre todo con los dispositivos de IoT para casas inteligentes. En esa línea, la tendencia de algunos dispositivos informáticos es hacia la movilidad, por tal motivo si se logra hacer hardware móvil libres se tendrían soluciones de diversos tipos que puedan darles una entrada en el  mercado y generar una demanda de ese tipo de producto como ocurrió cuando entró Androide. En un proyecto de hardware de fuentes abiertas debería considerar algunos puntos cuando publique su proyecto, y aunque no está en la obligación de publicarlos todos, mientras más comparta, mayores serán los beneficios para la comunidad y mayor será la probabilidad de que la comunidad adopte su proyecto. A groso modo su proyecto de hardware de fuentes abiertas deberá incluir una descripción de la “identidad” del hardware y su propósito, escrito para una audiencia general en la medida de lo posible. Esto consiste en responder a preguntas sobre el proyecto tales como ¿qué es? y ¿para qué sirve?, antes de describir los detalles técnicos. Una buena fotografía o un “render” del diseño puede ayudarle muchísimo en este punto.    

Transporte de datos y la transformación digital por medio de SDN

25 Junio, 2018 | Toda organización que desea tener éxito debe contar con la capacidad de aprender, crecer y desarrollar un constante sentido de adaptación, pues son aquellos organismos adaptables los que tienen las mejores posibilidades de reaccionar positivamente a los elementos impredecibles del ambiente. En la naturaleza, este proceso ocurre por medio de lo que denominamos selección natural, donde un individuo puede tener o no la suerte de contar con los genes necesarios para adaptarse a las circunstancias que la naturaleza presente. En este proceso de selección natural se desarrolla también la jerarquía del mundo natural y se definen los organismos que se ubicarán en el tope y al final de la cadena alimenticia, quienes dominan y quienes serán subyugados en un determinado ecosistema. En el mundo natural este proceso ocurre un tanto al azar, producto de pequeñas mutaciones genéticas, sin embargo, en las organizaciones ocurre como producto de las decisiones de cada individuo a partir de la información con la que se cuenta. El éxito de una organización está en adaptarse al mercado y esta adaptación, ocurre cuando todos los profesionales involucrados en el proceso cuentan con la mayor cantidad de información posible, de allí la frase trillada “La información es poder”. Ése es el rol del profesional de TI, procesar y proveer de una forma simple, rápida, práctica y segura la información necesaria para que la organización pueda tomar decisiones oportunas que permitan la adaptación y diferenciación. Tradicionalmente, el modelo de TI ha sido bastante comprensible, sin embargo, a medida que las organizaciones crecen, a medida que se amplía la oferta y la demanda, y que los mercados se vuelven mas exigentes, ocurre un proceso de especialización y optimización que requiere que los procesos tradicionales sean más rápidos, más seguros y en general más eficientes. No hay límite en la expectativa las organizaciones tendrán del proceso de optimización, siempre habrá espacio para mejorar. A este proceso de optimización y adaptación por medio de la información y la tecnología le llamamos Transformación Digital y cuenta con 3 premisas identificables en cualquier ámbito: Crear Nuevas Experiencias para los Clientes Transformar Procesos y Modelos de Negocio Potenciar la Eficiencia del Personal y la Innovación Con el propósito de alcanzar los objetivos de la Transformación Digital las organizaciones se enfocan por lo general en desarrollar y potenciar los servicios de TI por medio de actualizaciones tecnológicas, virtualización de servicios y productos, y mejoras en los procesos operativos de la organización. Uno de los elementos claves en este proceso es el transporte de datos. Es un componente estratégico en la organización, ya que en el proceso de Transformación Digital cada vez más requerimos de características de movilidad y de disponibilidad de la información en todo momento y en cualquier lugar. Las organizaciones bancarias cada vez más están invirtiendo en servicios de banca en línea para sustituir la transacción tradicional pues es más conveniente para los usuarios, requiere menos tiempo y menor inversión de recurso humano, lo que reduce significativamente los costos operativos tanto de las instituciones bancarias como de los mismos clientes que hacen uso de los servicios de banca electrónica. Este proceso de evolución tecnológica requiere que el transporte de datos cuente con seguridad, simplicidad, automatización e inteligencia, y ése es el desafío que las organizaciones enfrentan en su preparación para la nueva era digital. De igual forma, los usuarios han evolucionado significativamente respecto a las generaciones anteriores. Con el incremento del poder adquisitivo de la generación que denominamos “Millenials” (Nacidos entre 1982 y 2000) y considerando que el mercado está dominado por esta generación, es que se vuelve inevitable lo que pasó con Blockbuster hace ya varios años donde los usuarios dejaron de ir a la tienda a rentar videocasetes o DVD, y comenzaron a consumir Netflix. De igual forma lo que está ocurriendo ahora mismo con Toy’s R Us, Best Buy y GAP entre otros donde el negocio de retail está siendo reemplazado por el e-commerce por medio de Amazon o Ebay, y donde el mismo Best Buy se ha movido a comercializar cada vez más por medio de su tienda en línea. “Creo que finalmente pasarán de tres a cinco años cuando los minoristas tengan una mejor idea del equilibrio entre sus negocios de comercio electrónico y la cantidad de tiendas que efectivamente pueden tener abiertas,” comentó el fundador de Retal Metrics Ken Perkins. https://www.cnbc.com/2018/04/05/here-are-all- the-store-closures-we-know-are-coming-in-2018. html La tendencia es evidente en cualquier ámbito y para muchos ya es tarde. Sin embargo, muchas organizaciones siguen creyendo que son cosas del futuro o que el mercado seguirá abriendo espacio a su modelo de negocio.  Hoy, como hace 15 años Mientras las infraestructuras de procesamiento evolucionan con soluciones de virtualización, las redes de datos siguen manejándose como hace 15 años. Desde el nacimiento del modelo de virtualización de ambientes de procesamiento como KVM, HYPER V, CITRIX, VMWARE entre otros, las organizaciones han realizado el proceso de migración de sus ambientes tradicionales donde cada aplicación requería  su propio sistema operativo y su propio servidor físico dedicado. Las desventajas de escalabilidad  eran enormes y los centros de datos se llenaban de cajas que requerían cada vez más energía, mas enfriamiento y más espacio. Ahora mismo ya se alcanzó el siguiente paso evolutivo en la utilización de Contenedores por encima de las máquinas virtuales, pues resulta aún más eficiente que el modelo virtualizado que ya todos conocemos. De aquel momento hace aproximadamente 10 o 15 años hasta este tiempo se han dado pasos enormes, tanto en el procesamiento de datos como desarrollando soluciones de virtualización en casi cada ámbito como bases de datos y virtualización de los propios “MainFrames” hasta la definición de servicios de procesamiento en la nube que simplifica significativamente el modelo de gestión. Mientras tanto en las redes de datos, seguimos dependiendo de la famosa y bien ponderada “VLAN” y, si bien ha habido ciertos avances en el proceso de virtualización utilizando tecnologías equivalentes a las de procesamiento como VDC o Contextos de Cisco, o VRFs como solución multi fabricante, el impacto ha sido lento y se sigue dependiendo de tecnologías de transporte tradicionales. El CLI (Command Line Interface) sigue siendo el elemento preferido por los ingenieros para el proceso de configuración de las plataformas de redes de datos. Y seguimos manejando los dispositivos de comunicaciones y seguridad como elementos aislados. Quizás uno de los mayores problemas que enfrentamos en el proceso de Transformación Digital desde el punto de vista de redes de datos es la disrupción que existe en la forma en la que se manejan y presentan los servicios a los usuarios y la forma en la que manejamos las infraestructuras de transporte. Mientras el ingeniero de aplicaciones habla de una arquitectura de “multitier” donde un servicio cuenta con una base de datos, una capa de aplicación y otra de servicios Web, que es totalmente coherente desde el punto de vista de los usuarios y la forma en la que se consumen los servicios, en el caso de los ingenieros de redes, seguimos hablando de arquitecturas CORE, Distribución y Acceso, y de segmentación de ambientes dentro del Centro de Datos por medio de VLAN o redes IP. Aunque la tecnología ha evolucionado enormemente, y existen muchísimas ventajas en la tecnología respecto a la que teníamos disponible hace 10 años, la tendencia sigue siendo la misma, cada dispositivo de comunicaciones e inclusive los de seguridad en muchos casos se configuran individualmente, y seguimos valiéndonos de tecnologías y topologías que venimos usando desde hace más de 10 años. Éste es el momento de provocar una evolución en las infraestructuras de comunicaciones y seguridad que hoy en día tenemos disponibles. El proceso de Transformación Digital requiere que demos el paso y podamos proveer estas características ahora mismo. ¿Qué hacer? Hace ya bastante tiempo las principales empresas en el mundo se dieron cuenta de las limitaciones de análisis y procesamiento que tenemos los seres humanos aún con las capacidades adicionales que la tecnología nos ofrece. No es raro ahora que los usuarios expresen desconcierto cuando al utilizar Google para realizar una búsqueda y haber ingresado 2 ó 3 letras en el campo, el navegador automáticamente predice exactamente lo que buscábamos aun cuando existen miles de posibilidades a partir de esas 2 ó 3 letras, y es que la búsqueda considera no solo la información que ingresamos sino el historial de navegación, la ubicación física, el tipo de dispositivo y navegador utilizado y otra serie de información contextual que permite predecir el comportamiento de los usuarios. Para que comportamientos como éstos sean posibles, para que una campaña de marketing identifique exactamente cuál es el drone que quiero comprar y me lo presente cada 5 minutos logrando que un nivel de éxito que de otra forma no existiría, es necesario facilitar la comunicación de máquina a máquina, limitando en la medida de lo posible la participación del ser humano en el proceso. Pues los seres humanos definimos el algoritmo y dejamos que la máquina lo ejecute. Es allí donde entra el concepto de Software Define Networking (SDN) que tiene como propósito la implementación dinámica y determinística de servicios de red. Esto quiere decir que no dependa de un ser humano para aprovisionar transporte a cualquier servicio que lo requiera. Éste es el resultado inevitable de la tecnología y estamos en el momento de iniciar el camino. El problema del concepto es que resulta difícil volverlo tangible ya que por naturaleza el ser humano es resistente al cambio y la definición paradigmática de la implementación y gestión de redes de datos está profundamente arraigada. Existen varias premisas respecto a las soluciones de SDN desde el punto de vista pragmático, para atender problemas que muchas veces no sabemos que si quiera tenemos:  Un cerebro ganador En la naturaleza, el cerebro de las abejas funciona en red, donde cada abeja se comporta como una neurona. Por sí mismos, los cerebros de las abejas son cosas bastante notables, aunque el poder de la computación humana aún los supera. Pero nuevas investigaciones sugieren que los miembros individuales de un enjambre se comportan sorprendentemente como neuronas en el cerebro humano. La idea es que, si bien las abejas como organismos individuales ejecutan acciones individuales, lo hacen considerando a toda la colonia y de forma muy orgánica se integran a la estructura estableciendo comunicación tanto para recibir información de otros individuos acerca del ambiente, como para notificar respecto a la información recibida. El proceso de interacción e integración es muy natural y transparente. En el caso de los dispositivos de comunicaciones inteligentes, independientemente de su fabricante, tiene 2 componentes lógicos: El plano de control es el cerebro donde se definen la serie de reglas de comportamiento del dispositivo respecto al tráfico. El plano de datos – es la serie de recursos físicos y lógicos que ejecutan el transporte en base a las reglas definidas en el plano de control. En función de esto, el modelo de SDN establece que toda la infraestructura de conmutación del Centro de Datos debe tener un plano de control centralizado. Esto quiere decir que cuando queramos configurar la red de transporte del centro de datos, desde el punto de vista de gestión, debemos observar un solo grupo de recursos con un solo cerebro. Si bien actualmente existen plataformas de gestión que utilizan SNMP, CLI u otro medio para gestionar la red, éstas únicamente permiten entregar instrucciones a cada cerebro individual de cada dispositivo. La aproximación de SDN está mas orientada a presentar todos los dispositivos como parte de un gran cerebro que tiene la capacidad de integrar todos los elementos entre sí. Esto quiere decir que ningún dispositivo toma decisiones individualmente, sino que se considera a toda la red para la determinación del comportamiento del tráfico. De esta forma el proceso de gestión de centraliza y permite que puedan habilitarse otros mecanismos para generar instrucciones distintas a que un ser humano establezca sentencias por medio de código. Programabilidad y lenguaje máquina a máquina Cuando un programador en cualquier tipo de plataforma desea establecer instrucciones para que sean ejecutadas por una máquina, es necesario establecer esa lista de instrucciones utilizando un código coherente que llamamos lenguaje de programación. El lenguaje de programación también existe en redes y es el set de instrucciones que se le aplican a los dispositivos para que éstos hagan lo que nosotros queremos. En el caso de los programadores de sistemas, ellos tienen la oportunidad de escribir el código, compilar, probar el comportamiento del código y luego de muchas pruebas y evaluaciones, sacar a producción. En el caso del ingeniero de redes, las sentencias ejecutadas son ejecutadas y aplicadas en tiempo real en la mayoría de los casos. Esto plantea un problema enorme con el que hemos aprendido a vivir por años y es el riesgo latente de error humano. El modelo de SDN establece que la definición de sentencias de programación debe ser ejecutada utilizando mecanismos que permitan una configuración extremadamente heterogénea y que no estén limitados a la capacidad de tiempo de respuesta que los seres humanos tienen. La idea es procurar la comunicación de máquina a máquina para disminuir el error humano, procurar que las configuraciones se apliquen de manera inmediata manteniendo homogeneidad en las reglas de operación de los dispositivos. Agnosticismo de red En la proliferación de posiciones filosóficas y religiosas existen aquellos que se consideran a si mismos ateos respecto a la existencia de una deidad, es una forma de pensamiento que declara la no existencia de un ser superior, sin embargo, hay quienes simplemente se consideran agnósticos pues no necesariamente niegan la existencia de un dios, sino que les resulta indiferente o inaccesible al pensamiento humano la noción de su existencia. De la misma forma SDN establece como premisa que las características de comunicación tradicionales como direccionamiento IP, VLAN u otro elemento tradicional que actualmente consideramos determinante se vuelven irrelevantes al punto donde solamente se utilizan como recursos a utilizar. Una aplicación no funciona mejor si utiliza la VLAN 100 en lugar de la VLAN 200; tampoco importa si el servidor se conecta en el puerto 10 o en el 11, pues la VLAN, el puerto o la dirección IP son solamente un número. El modelo de SDN propone que los elementos relevantes en la comunicación son aquellos que sí tienen un impacto directo en la operación de la aplicación o el servicio a los usuarios y por lo tanto cualquier otra cosa es irrelevante debe simplificarse su uso o aplicación. Los fabricantes de soluciones de SDN tienen todos estos elementos dentro de un grupo de recursos que son utilizados de forma automática en la medida que se van requiriendo, de tal forma que el proceso de implementación se simplifica significativamente y se facilita el proceso de aprovisionamiento automático. SDN de CISCO Cisco es uno de los fabricantes que ha desarrollado soluciones completas basadas en el modelo de SDN. La solución de Cisco se llama ACI (Application Centric Infrastructure) y está basada en la plataforma de dispositivos Nexus 9000 y en los dispositivos de control llamados APIC (Application Policy Infrastructure Controller). La solución de Cisco se basa en los siguientes fundamentos: Seguridad Los procesos interconectados digitalmente son el sustento de la empresa y deben ser protegidos de forma integral. Los límites de las empresas se están expandiendo cada día más y las compañías de hoy están adoptando ecosistemas abiertos que son excelentes para mejorar la eficiencia, pero también elevan las posibilidades de sufrir un ataque. La digitalización se está volviendo más valiosa y las transacciones en línea y la propiedad intelectual son más vulnerables a los riesgos de seguridad. Ante este panorama, la superficie de ataque ha crecido y es fundamental contar con una infraestructura segura para proteger la integridad y la reputación de la empresa. Automatización Millones de dispositivos, miles de máquinas virtuales y cientos de aplicaciones están conectándose para la transformación digital mientras el personal de TI sigue siendo el mismo. Para este departamento, gestionar todo de forma manual es casi imposible debido al tamaño y la complejidad de los entornos de red, además de las expectativas de tener respuestas en tiempo real. Las necesidades empresariales están cambiando rápidamente y usted necesita ser proactivo, ágil y reactivo. Una infraestructura automatizada es el motor que impulsa la transformación digital. Simplicidad A medida que el Internet de las Cosas (IoT) toma forma, millones de dispositivos y fuentes de datos diferentes se están conectando entre sí.  Debido a ello, las organizaciones están llevando acabo la convergencia de TI y TO para integrar los procesos y el flujo de información. Las empresas y la infraestructura están obteniendo mayor dinamismo y distribución a través de las tendencias sociales, móviles y de nube. Todo esto aumenta la complejidad y por esa razón usted necesita contar con mayor simplicidad en su infraestructura. Inteligencia El mundo está cada vez más conectado, los datos son más importantes que nunca y cada día más organizaciones buscan liberar su valor total aprovechando el conocimiento contextual que producen las aplicaciones, los usuarios, las amenazas y la ubicación. Necesitan conocimientos predictivos y prescriptivos para responder más rápido ante los cambios del mercado, por eso están buscando procesos y tecnologías más adaptables que les permitan entender mejor a sus clientes y los procesos de negocio. Estas prioridades requieren una infraestructura inteligente. Adicionalmente a lo anterior, la solución propone un ecosistema abierto que permite que se puedan integrar diferentes fabricantes de servicios de red y seguridad al mismo modelo general de control y operación basado en ACI. Con esto, se busca simplificar la definición de características de administración y operación desde un punto centralizado independientemente del fabricante de la plataforma de seguridad o de red que se deseen implementar. SDN y GBM como integrador En cualquier empresa existe la necesidad constante de habilitación de nuevos servicios por lo que todos los involucrados en el proceso deben estar listos para realizar su labor. Imaginemos que queremos habilitar un nuevo servicio para los usuarios; este servicio requiere que los usuarios accedan por medio de Internet utilizando un servicio web. El ingeniero responsable de la aplicación requiere que todos los componentes del servicio puedan ser habilitados por lo que debe hablar con el responsable de base de datos para que habilite el espacio necesario, también con el responsable de la infraestructura de procesamiento virtual para que prepare las máquinas virtuales necesarias que formarán parte del servicio, de la misma forma hablar con el ingeniero de redes para que prepare la red para habilitar la comunicación entre los diferentes elementos y finalmente, con los ingenieros de seguridad para que habiliten los servicios de control e inspección necesarios para el servicio. El proceso de habilitación de un servicio resulta ser extremadamente complejo e involucra muchas partes. El riesgo de que algo salga mal es muy alto y por lo general implica constantes correcciones y adecuaciones durante la marcha. Que diferente sería que el responsable de la aplicación pudiera entrar a un portal donde está el catálogo de servicios, seleccione todas las características necesarias y luego iniciará un proceso automático de aprovisionamiento donde sea esta plataforma la que se encargue de girar instrucciones al resto de plataformas de forma directa (lenguaje máquina a máquina) y el proceso de aprovisionamiento dure unos pocos minutos. Éste precisamente es el modelo propuesto para un ambiente de “Software Defined Datacenter” donde el componente de red es uno de los bloques modulares que lo compone de tal forma que se puedan realizar las integraciones de forma segura, sencilla y automática. GBM como integrador de soluciones de comunicaciones y como proveedor de servicios de nube ha incorporado en sus Centros de Datos tecnologías SDN utilizando la solución de Cisco ACI con el propósito de obtener todos los beneficios propuestos por el modelo, como el aprovisionamiento automático de servicios de red, centralización dela gestión de red y las características de seguridad “multitenant”. Esta arquitectura permite que durante el proceso de aprovisionamiento de servicios de red sea la propia aplicación la que defina los requerimientos y quien aprovisione la red de forma automática de tal forma que se evite la necesidad de tener que realizar configuraciones manuales cada vez que se requiera un nuevo servicio. De la misma forma, GBM ha realizado varias integraciones en empresas de la región donde se han habilitado servicios SDN como parte del proceso natural de migración de la infraestructura. El proceso de integración de soluciones SDN ha permitido iniciar el  proceso  de  cambio de paradigma en la región y permite que las instituciones puedan confiar plenamente en que el proceso inevitable de actualización de las plataformas de transporte de datos se pueda ejecutar de forma transparente sin comprometer la operación normal de los servicios.  

La Red. Intuitiva

25 Junio, 2018 | Cisco presenta la nueva visión de lo que una red es capaz de hacer y hacia dónde puede llevar a los negocios y al progreso del planeta. Los seres humanos tenemos una cualidad única que nos ha acompañado a través de nuestro proceso evolutivo. La intuición. Esa capacidad de discernir cuando algo está bien y cuando no lo está, que nos permite reaccionar de manera inmediata, en ocasiones hasta anticipándonos a problemas futuros, gracias a la información que nos provee nuestro entorno. La intuición es en gran medida, una de las claves por las que hemos logrado el progreso del que hoy disfrutamos. Pero el actual dilema se encuentra en que esta capacidad no se ha podido trasladar a la forma en que nuestras herramientas tecnológicas se desempeñan. Ante las crecientes exigencias del mundo de los negocios, los equipos de TI de todo tipo de organizaciones se enfrentan a tres grandes retos: La disrupción digital: Para 2020 habrá un millón de nuevos dispositivos conectados a  la red cada hora; esto aunado a las tendencias de movilidad, IoT, nube y machine learning producirán una explosión de datos, que desafortunadamente no será sencillo traducir en insights de negocio. La complejidad de operación: Entre el 80-95% de los ajustes de redes son realizados manualmente, representando un gasto tres veces superior a las inversiones realizadas en infraestructura de red. Ante un entorno de más usuarios, dispositivos y aplicaciones; este modelo manual resulta lento y propenso a errores.  La ciberseguridad: Actualmente toma 3 meses detectar una violación de ciberseguridad, con un costo promedio de US$4 millones. Ante amenazas cada vez más sofisticadas crecen las preocupaciones de tener cada vez más áreas vulnerables a ataques en una empresa. Cisco ha movido el tráfico de datos para el 80% de Internet durante las últimas tres décadas. Pero no solo lo movimos, lo estudiamos, trabajamos para entenderlo y ese aprendizaje se aplica ahora en esta nueva red. La nueva red entiende el mundo que está conectando. Puede identificar y responder mucho más rápido a las amenazas y oportunidades. Actúa como un sistema inteligente que sigue evolucionando y volviéndose más inteligente y sensible para: Resolver problemas incluso antes de que sucedan: la nueva red tiene una visibilidad y comprensión profunda de su tráfico. Puede ver algo una vez, correlacionarlo con otras fuentes de datos a gran escala y ver cosas que no quieren ser vistas. Ver  y  responder  las  amenazas: las amenazas de ciberseguridad siguen evolucionando. La nueva red lo sabe. Las ve incluso cuando no quieren ser vistas, como cuando se esconden en el tráfico cifrado. La nueva red detiene 20 millones de amenazas al día, y aprende de cada una de ellas. Reinvertir recursos de TI en resultados de negocio: la nueva red se comporta como un sistema inteligente, automatizando tareas cotidianas, estudiando sus cambios y aprendiendo constantemente. Esto libera horas de trabajo productivo de los profesionales en TI para que puedan concentrarse más en la identificación de nuevos proyectos e innovaciones que ayuden a transformas a sus organizaciones. La red intuitiva está diseñada sobre nuestro modelo Cisco DNA. Hospitales, oficinas gubernamentales, instituciones educativas y diversas empresas en el mundo ya están actualmente aplicando estás nuevas capacidades para transformar sus respectivos sectores. Esto es un planteamiento completamente nuevo sobre lo qué una red es capaz de hacer y hacía donde puede llevar el progreso del mundo, y solo Cisco tiene la experiencia y capacidades para entregar esta promesa de valor para las necesidades de hoy en día. Los invito a conocer más sobre las innovaciones que están redefiniendo el rol de la arquitectura de red para el progreso en el mundo, así como los elementos críticos que conforman esta nueva era de networking. La Red. Intuitiva.

¡Muchas tareas rutinarias, aliviadas con poderosas cápsulas de servicios!

25 Junio, 2018 | Las altas exigencias del mercado, así como la alta competitividad, en donde ya todas las industrias se enfrentan ante muchos competidores, más ágiles y más preparados, ofreciendo productos y servicios que compiten entre sí, no sólo en calidad sino en precio; y donde se encuentran con clientes profesionales, más informados y con acceso fácil a todo tipo de información; han llevado a la conclusión de que las Tecnologías de la Información (TI) son, obligadamente, parte de la estrategia diferenciadora que, complementará lo necesario para ser exitosos, eficientes y ágiles en medio de esas realidades. Lo mismo sucede en las instituciones o entidades no lucrativas o gubernamentales, en donde, no se compite comercialmente, pero sí deben ser más eficientes y ágiles, para proveer de resultados o servicios, a quienes ellos se deben: una ciudadanía, unos estudiantes, etc. También han concluido que las Tecnologías de la Información (TI) deben ser parte vital de sus estrategias y planes de ejecución. Implementar una exitosa y efectiva estrategia de TI requiere de muchos recursos y, entre ellos, de tareas críticas (por ejemplo, implementación dentro de tiempos reducidos), de un adecuado soporte y gestión operativa y administrativa. Muchas de las tareas, de soporte y gestión, son rutinarias y de poco valor estratégico para la empresa y, sin embargo, la realizan recursos especializados, costosos y limitados, los cuales podrían enfocarse en tareas de mucho mayor valor e impacto. Las poderosas cápsulas de servicio, tipo Add On, que GBM ha diseñado al mercado, para complementarlas, opcionalmente, con servicios primarios, descargan de las empresas esas tareas rutinarias, las cuales se ejecutan con base en mejores prácticas y altos estándares de calidad y cumplimiento. Entre esas Poderosas Capsulas de Servicio, tipo Add On, opcionales para el mercado están: Servicios de productividad y colaboración, fundamentados en servicios en la Nube, para usuario de Microsoft (CSP), los cuales conllevan beneficios de flexibilidad, comodidad de pago y de soporte directo por parte de GBM (Office 365 Add On) Servicios de respaldo de información para PCs y Equipos Portátiles en las premisas de las Empresas, los cuales conllevan servicios de automatización y resguardo de información crítica (Backup on Prem Add On) Servicios de gestión y soporte, multimarca, para equipos existentes donde, por medio de mejores prácticas, se coordinan planes efectivos de mantenimiento preventivo y correctivo, los cuales conllevan beneficios de productividad de usuarios y de mejora en disponibilidad de servicios (Device Management Add On) Servicios de soporte remoto para ofimática y microinformática ya existente en las empresas y que, según lo amerite, puede conllevar el traslado de un recurso a las ubicaciones del cliente, para resolver presencialmente. También disponible para proveer soporte vía herramientas de red social (IT Support). ​Entre muchos otros servicios próximos a liberarse que, como los anteriormente mencionados, por medio de pequeñas cuotas mensuales, por usuario, pueden activarse fácilmente para la liberación de los recursos estratégicos de las empresas.

Venciendo la Paradoja Operativa

25 Junio, 2018 | Seguramente, de una u otra forma estamos familiarizados con la famosa cita “hacer lo mismo una y otra vez esperando resultados diferentes…”, dicha expresión pudiera incluir un componente adicional que además de hacer más complejo el escenario, pone todo cuesta arriba: “hacer lo mismo una y otra vez - con menos recursos - esperando resultados diferentes…” La situación planteada advierte una realidad que afrontan las organizaciones bajo la “Paradoja Operativa” de hacer más con menos recursos año tras año, las batallas internas que se generan en torno a los presupuestos operativos, dejan daños colaterales cuyo impacto se refleja mayormente en el incremento de esfuerzo y desgaste en la operación, con el afán de cumplir los indicadores de disponibilidad de plataformas y sistemas. Del otro lado de la moneda, la industria está evolucionando, creando alternativas que ayudan a las organizaciones a minimizar los riesgos y a controlar los costos operativos a través de nuevos procesos de trabajo que sean más eficientes por medio de herramientas que impulsen el uso de tecnologías para complementar la reducción de presupuestos o el imperativo de reducir costos, es por esto que GBM dentro de su modelo disruptivo ha creado un ecosistema que integra diferentes “Torres de Servicios” ofreciendo un completo catálogo de servicios específicos para la Gestión y Operación de Infraestructuras Tecnológicas (IT Outsourcing), los cuales están acompañados de estructura, metodología, mejores prácticas, herramientas y gestión de procesos que garantizan una apropiada transición e integración al modelo de gobierno operativo de sus clientes. Adicionalmente una correcta concepción del modelo de negocio (a través de economías de escala que permiten individualizar el esfuerzo y establecer precios de referencia por dispositivo u ambiente), introduce al mercado el Servicio SmartOps, enfocado en operar de manera remota y en una base 7x24, diferentes ambientes IT integrando las capacidades de mesa de servicio, monitoreo de eventos y el centro de excelencia de GBM, que reúne y concentra diferentes recursos debidamente especializados en la gestión y administración de sistemas operativos (Power i, UNIX, Windows y Linux), equipos de telecomunicaciones, virtualización, bases de datos (Oracle, MS SQL, DB2), Middleware y aplicaciones comerciales. Dentro del mundo de aplicaciones comerciales, resaltamos la gestión y administración de la plataforma SAP a través de nuestro Centro de Excelencia, desde donde se presta el soporte tradicionalmente llamado BASIS en las capas de Netweaver, de bases de datos (Sybase, Hana, Oracle, MS SQL o DB2), sistemas operativos e infraestructura. Complementando los dominios tecnológicos antes mencionados, el Servicio SmartOps soporta los Sistemas SAP desde el Centro de Excelencia para el soporte y administración de las plataformas. El servicio está fundamentado en la utilización de mejores prácticas dictadas por ITIL (Information Technology Infrastucture Library) aplicables a la gestión de servicios de TI, trasladando a nuestros clientes una mayor calidad y eficiencia en la entrega. Estos nuevos modelos de gestión remota, complementan de manera muy adecuada, la oferta tradicional de Outsourcing en Sitio (Manpower), por cuanto permite una distribución estratégica de funciones que pueden ejecutarse de forma remota y en una base 24/7, para dedicar el soporte presencial a aquellas actividades que requieran estrictamente funciones en sitio o manos remotas. Y esta misma estrategia operativa puede aplicarse de manera transparente a modelos de administración “In house” por parte de nuestros clientes, en la cual los componentes del servicio SmartOps, se vuelven parte de la operación interna, lo cual se logra con los procesos de transición en las cuales se definen los alcances y metodología de trabajo, para posteriormente alimentar nuestros procesos de transición (gestión de configuraciones, cambios, liberaciones) y operación (gestión de eventos, incidentes, solicitudes, problemas), los cuales son automatizados en nuestras diferentes herramientas: monitoreo, tickets, CMDB, reportería, por mencionar algunas. La revolución digital ha iniciado y no se detendrá, GBM ofrece un cambio radical en la manera en que se gestionan las operaciones de TI permitiendo a sus clientes adaptarse rápidamente para convertir los procesos más rápidos, inteligentes, ágiles y flexibles. Los servicios SmartOps de GBM, están diseñados para apoyar a las organizaciones a mantener los ambientes de TI, operativos y correctamente administrados, impactando positivamente la productividad y la eficiencia de nuestros cliente y venciendo así la paradoja operativa. Para más información sobre nuestros servicios visite: https://www.gbm.net/es/smartops

Evite ser una víctima más

25 Junio, 2018 | En nuestra región, se hacen cada vez más comunes los fraudes financieros.    Estamos en una época donde todos los días los titulares de las noticias recuerdan lo delicado que es este tema, no solo para los clientes de las entidades financieras, sino para cualquier industria, que son perjudicadas dada la afectación de la imagen y los costosos procesos de investigación y gestión de los incidentes. La necesidad que tienen las compañías de implementar estrategias multicanal para brindar opciones novedosas y, otorgar una buena experiencia al cliente en el consumo de servicios financieros, hace que los CIOs y CISOs tengan un dolor de cabeza más. Ya no solo es preocuparse por el fraude web, además hay un nuevo canal que protege el móvil. Para nadie es un secreto que todas las entidades financieras ya tienen un App móvil para que sus clientes puedan realizar transacciones financieras y aquellos que aún no lo tienen, lo están desarrollando. Si revisamos con detenimiento este tema, es evidente que el medio más accesible para que los delincuentes cometan un acto de fraude es el dispositivo móvil del cliente potencial. Los usuarios descargan Apps de todas partes, no solo de los “app store” oficiales, y generalmente no utilizan software antivirus dada la poca conciencia que hay con este tema. Desde años atrás han surgido devastadores tipos de malware financiero, entre ellos están ZEUS, Gozy y Nymaim. De acuerdo con un estudio realizado por Kaspersky Lab, los ataques de malware dirigidos a clientes bancarios durante el segundo trimestre del 2016 aumentaron 15,6% en relación con el trimestre anterior. En otro estudio realizado por Arxan Technologies, se revela que el 87% y 97% del top de aplicaciones de paga en iOS y Android  han  sido  vulneradas y posteadas en “app stores” de terceros. Adicionalmente, IBM revela que, para un solo banco monitoreado, se detectaron en un periodo de 10 meses, 724 intentos de ataque de Malware, 6895 dispositivos infectados con malware y 602 sitios de phishing detectados. Si bien es cierto, una de las estrategias que deben adoptar estas entidades es la educación y concientización a sus clientes, con el objetivo de reducir la incidencia de este tipo de eventos adversos, pero esto no es suficiente. Hay otras estrategias como las de bajar los sitios de phishing que aunque son necesarias, se debe ir más allá para estar protegido. Las empresas deben asumir que siempre se presentarán eventos de fraude y que sus clientes serán víctimas de ellos. Dado esto, las entidades deberían diseñar e implementar controles avanzados para detectar de forma temprana estos eventos o potenciales ataques, con el objetivo de que puedan detener el fraude antes de que se realice.  Pero, ¿cómo hacer eso? La respuesta puede ser muy amplia. Sin embargo, lo primero es tener información de inteligencia que permita identificar la forma de operar de los delincuentes. ¿Sabían que es posible detectar si la persona que está conectada a su cuenta de “web banking” no es un cliente legítimo, solo con el movimiento del mouse? Pues así es. Dentro del portafolio de seguridad y prevención de fraude de GBM existe un servicio en la nube que permite identificar actos delictivos en las plataformas transaccionales web y móviles de las entidades financieras, el mismo se ejecuta con tecnología de IBM denominada Trusteer. Entre sus funcionalidades se destaca la capacidad de detectar algún indicio de suplantación de identidad. Una de las técnicas que utiliza es el análisis de comportamiento biométrico, lo que permite identificar patrones de uso del mouse no habituales lo que hace ver que la cuenta la está utilizando un tercero y no el cliente real. Adicionalmente, Trusteer cuenta con otras capacidades para detectar y prevenir fraudes, desde detectar campañas de phising dirigidas, determinar cuáles fueron los clientes víctimas, hasta detectar qué usuarios válidos están ingresando al sitio web con un dispositivo infectado de malware. Este software está monitoreando a muchas empresas financieras a nivel mundial, por lo que mediante tecnología cognitiva, cada día aprende más y más. Obtiene conocimiento sobre nuevas técnicas de fraude, nuevos tipos de malware y recibe información relevante para que cada día el servicio sea más inteligente y sus clientes puedan utilizar esa inteligencia para accionarla y robustecer su seguridad. En general, este servicio con tecnología Trusteer provee información vital para robustecer la seguridad pero esto es solo  el inicio, ahora, ¿cómo acciono esa información?, ¿cómo hago para que me sea de utilidad y evite que se llegue a realizar el fraude? Para esto, existe otro componente denominado “IBM Access Manager”, mediante la integración que se puede realizar permitirá brindarle o denegarle el acceso a la aplicación, o bien, establecer otro tipo de controles como brindar el acceso con ciertas restricciones para que no pueda realizar transacciones, o solicitar un segundo factor de autenticación para determinar si realmente es el cliente real de la entidad financiera. También se pueden modificar las aplicaciones actuales, para que Trusteer los alimente e implemente este tipo de controles sin necesidad de un componente adicional. Independientemente de cómo se haga, lo cierto es que este tipo de controles han ayudado a muchas entidades financieras alrededor del mundo a disminuir los fraudes y por ende, ahorrar dinero. Y su compañía, ¿cómo afronta este gran reto? ¿cómo está protegiendo su reputación?  

30 años investigando

25 Junio, 2018 | En abril de 1988, en el Club de Investigación Tecnológica  empezamos a realizar investigación aplicada. Investigamos y estudiamos la últimas tecnologías, esforzándonos por separar el bombo publicitario de los proveedores, de las verdaderos innovaciones, analizando siempre los posibles impactos de estas tecnologías en nuestro empresas e instituciones. Hemos publicado 47 informes de investigación, realizado más de 325 conferencias/desayuno y docenas de seminarios, mesas redondas, y otras actividades tendientes a diseminar el conocimiento y el entendimiento de la tecnología, sobre todo la de información y comunicación. En Costa Rica, en el sector productivo, es muy difícil, sino imposible realizar investigación básica, nunca la hemos pretendido, ni intentado. Tampoco hemos realizado investigación basada en encuestas, ya que las opiniones no ayudan mucho al entendimiento de las nuevas tecnologías, y entre más nuevas, menos gente las entiende y más envueltas en ruido publicitario suelen venir. Los temas a estudiar los deciden los afiliados al Club, nunca hemos creído saber mejor que ellos qué es lo que ellos quieren saber. Por ejemplo, el primer informe fue sobre redes de computadores, en ese tiempo estábamos todos intrigados sobre las maneras, y las tecnologías involucradas, en hacer que varios computadores se comunicaran entre si. Hace 30 años la información viajaba, básicamente, en papel. Era difícil de conseguir, las últimas tecnologías tomaban tiempo en llegar aquí, y la mayoría sufrían de importantes impuestos de importación. El recurso humano era escaso y muy joven, y el dominio del inglés mucho menor al de ahora. Hoy la información es digital y abundante, el recurso humanos sigue siendo escaso y joven, y las nuevas tecnologías están casi siempre disponibles globalmente al mismo tiempo. Hoy sufrimos de exceso de información. Es imposible, para cualquier ser humano, poder leer todo lo que le interesa, la lista de asuntos por leer se nos hace más larga cada día. Todos los días se publican más artículos, revistas, libros, y periódicos de los que se pueden leer, aunque no tuviéramos nada más que hacer. Solos, nunca podremos mantenernos al día. En una comunidad de intereses compartidos, las posibilidades son mucho mayores. Mientras las tecnologías de información y comunicaciones se siguen desarrollando a ritmo exponencial (la capacidad de procesamiento por dólar se duplica cada dos años). Por ejemplo, la única computadora que tenía el Ministerio de Hacienda, cuando empecé a trabajar, era 15,000 millones de veces menos poderosa por dólar que mi teléfono de hoy. Si a eso le agregamos que la capacidad de almacenamiento, a partir de los años 80 se ha desarrollado todavía más rápido que la capacidad de procesamiento, y que el ancho de banda, a partir los años 90, se ha desarrollado más rápido que la capacidad de almacenamiento, resulta en un ambiente empresarial e institucional, en el que la tecnología juega un papel cada día más transformador. Pero a pesar del abaratamiento de la tecnología, la factura tecnológica de la organizaciones sigue creciendo, cada vez hay más cosas que se pueden digitalizar, más procesos que se pueden agilizar, y más usuarios cuya experiencia se puede mejorar. Pero, como todos sabemos, la aplicación de las tecnologías no siempre es fácil o acertada, y cuando son tecnologías novedosas, los riesgos crecen más que proporcionalmente al costo. Con frecuencia he dicho que el término “revolución tecnológica” es engañoso, porque las revoluciones terminan y suelen ser seguidas de un período de calma, y ese definitivamente no es el caso con la tecnología. El cambio tecnológico va continuar, y cada vez más rápido, no hay nada que sugiera que algún día el ritmo de desarrollo perderá el impulso exponencial. Todo esto redunda en una seria complicación del puesto del encargado de tecnología de las organizaciones. El Oficial en Jefe de Información (CIO en inglés) es un puesto que todas las organizaciones tienen que tener, es el responsable de entender el desarrollo de las nuevas tecnologías, inferir cómo mejor utilizarlas para beneficio de la organización, y asegurarse que la ejecución sea exitosa. Para hacer esto debe conocer muy bien la organización y en especial qué hace funcionar el “negocio”, así como quienes son y qué desean sus clientes y usuarios. Desde hace años han habido discusiones interminables acerca de si el CIO debe ser más gerente, o más técnico, cuando lo cierto es que debe ser muy competente en ambos campos. El pasado mes de mayo celebramos el aniversario del Club. Realizamos una reunión exclusiva para CIOs, en la que lanzamos una nueva iniciativa llamada CIO Circle, una comunidad de CIOs dedicada a agregar valor a los miembros a través del conocimiento y entendimiento, tanto de la tecnología como de las disciplinas de administración y gerencia. Para esta nueva iniciativa nos hemos aliado con Incae Business School, la consultora EY, y GBM. Con la esperanza de llevar esta iniciativa a todo Centroamérica para finales de este año. Estamos invitando otros aliados cuyos intereses estén alineados con nuestra meta de, promover el conocimiento y entendimiento, de la intersección de la tecnología y la gestión, es así como el Presidente del Object Managment Group (OMG) será uno de los expositores en esta primera reunión. Imposible saber dónde nos llevarán los próximos 30 años, lo que sí sabemos es que los cambios que verán, los que estén todavía por aquí, serán muchas veces mayores que los que hemos visto en los últimos 100 años. Entre más rápido cambie la tecnología, más importante es la investigación aplicada a su mejor aprovechamiento. Por suerte las nuevas generaciones son todavía más curiosos, y sedientos de conocimiento y entendimiento que nosotros. Una comunidad de intereses compartidos, dedicada a averiguar y compartir conocimiento, solo buenos resultados puede producir. Digo yo.

El fin de la era “Pangea” de las tecnologías de información

04 Junio, 2018 | Es necesario separar la tecnología de los datos para explotar estratégicamente el valor de la información. Hace años, con el desarrollo de la tecnología, las empresas vieron la necesidad de contar con áreas especializadas en manejar todo lo relacionado con equipos, sistemas y cualquier gadget que fuera adquirido. Un solo departamento de tecnologías de información, eminentemente técnico, era suficiente. Con el paso del tiempo y la evolución tecnológica, estos departamentos han tenido que asumir cada vez más retos que trascienden lo técnico y que están, en muchos casos, más relacionados con el corazón del negocio, que con el tipo de solución o plataforma adquirida. Es así como hemos visto casos como el de un vicepresidente de TI, encargado de la implementación de un sistema ERP, cuyo objetivo justamente es la planificación de los recursos empresariales: ¡grave error! No porque la persona no cuente con la capacidad necesaria para liderar el proyecto, sino porque la tarea es un problema de negocio y no de tecnología.  Otro legado de antaño tiene que ver con la gestión funcional. Es decir, administrar con un enfoque en las áreas de la compañía, lleva a la creación de silos de información. Cada departamento aduce cumplir con sus responsabilidades y su rol, sin embargo, al elevarse unos metros y observar la totalidad, lo que generalmente se ve es un desastre: no hay definiciones unificadas sobre la información, ni tampoco repositorios adecuados y conocidos por todos.   Las consecuencias de esto son claras: la creación de nuevos datos se multiplica rápidamente, sin que exista confianza en ellos.  A partir de nuestra experiencia, la solución a este reto pasa por la existencia de una figura, con un enfoque de negocios, que administre la información. La razón principal para hacer esto es la complejidad tecnológica y de información que están alcanzando algunas empresas. Un nuevo rol: el Chief Digital Officer Una vez que las empresas se convencen de la necesidad de separar la gestión de TI, alguien debe desenredar el nudo de la información empresarial.  Es una responsabilidad compleja pero sumamente estratégica. El Chief Digital Officer o CDO, como lo han bautizado algunas empresas, debe ser alguien que entienda las necesidades del negocio y no se concentre tanto en la complejidad técnica.  De hecho, en organizaciones que ya crearon este nuevo rol, el encargado muchas veces carece de formación técnica. El CDO se convierte en el administrador de la información. Asimismo, es evidente que su trabajo se apoya en las herramientas que implementan todas las áreas y que el departamento de TI mantiene funcionales.  Pero su equipo se asegura de que la información se capture y gestione de manera adecuada. Es decir, esta es la persona encargada de romper y evitar los silos de información y crea una democracia organizacional de los datos para explotar su valor estratégico.                  En conclusión, si su empresa sigue viviendo en la era Pangea de los departamentos de TI, donde todo está unido, es hora de replantearse el enfoque. El valor estratégico de la información es demasiado alto para perderse en medio de ese súper continente que concentra todo. Los datos no pueden ser una función más para un equipo técnico, sino que deben ser una tarea de foco organizacional.

Banca Digital 2.0

01 Junio, 2018 | Para innovar en el sector de Servicios Financieros, se requiere partir de las necesidades de los segmentos de clientes, y desde ahí construir modelos de servicio que generen una ventaja competitiva. Parte importante de la banca entendió la transformación digital como la adquisición de "paquetes" comerciales, nuevos “Core Bancarios”, aplicaciones o plataformas de Banca Digital para mejorar sus canales existentes. Estos paquetes ofrecen Omnicanalidad y rápida implementación, pero pocos han podido materializar estos beneficios por múltiples razones: Los usuarios esperan funciones específicas de acuerdo al canal. Los canales ofrecen capacidades distintas y se requiere adaptar la funcionalidad a las mismas (smartphones, POS, quioscos, IVRs, chatbots, ATMs, Smart Watch, asistentes virtuales, APIs para Fintechs, Contact Center, Corresponsales No Bancarios, redes sociales, entre otros). Diversas generaciones de usuarios perciben y utilizan productos de los bancos en forma muy diferente. Integraciones con los sistemas en el backend y flujos de trabajo se convierten en un proyecto paralelo de mayor complejidad que el proyecto principal. Modificaciones a la aplicación para adaptarla a necesidades específicas son de gran impacto debido a la rigidez de la arquitectura. Canales que una vez fueron innovadores, como la banca en línea o la banca móvil, hoy día son un commodity. Una vez que estos son resueltos en el mejor de los casos permiten una nivelación con el promedio de la banca, entregando lo que el promedio de clientes requiere. Sin embargo, las Fintech han llegado para agitar el mercado y las necesidades de los clientes. La rapidez de ideación y despliegue en el mercado, la capacidad de probar nuevos conceptos y de reconstruir un servicio basado en el feedback inmediato de segmentos de clientes, están generando verdadera disrupción e innovación. Y todo esto es posible gracias a que las Fintech no usan un “paquete” sino un lego en constante expansión. A partir de la influencia de las Fintech y de startups que lograron dominar nichos en forma exponencial, la banca está adaptándose rápidamente y las primeras decisiones que toman sus recientemente creadas unidades de innovación son: Utilizar metodologías ágiles para la creación de nuevos productos, servicios o canales. Conducir procesos de Design Thinking que permiten reducir el ciclo de ideación a producto mínimo viable de meses a días. Selección de plataforma de nube pública para habilitar contenedores, servidores de aplicación, bases de datos, seguridad, APIs, en segundos, en lugar de meses. Seleccionar un toolchain para DevOps, para desarrollo, integración, testing y deployment continuos; reduciendo los tiempos de creación, modificación, e implementación a producción. Utilizar APIs de terceros que agreguen valor en el producto o servicio que se está ideando tales como: reconocimiento de voz, autenticación biométrica, generación de diálogos en lenguaje natural, evaluación de riesgo, procesamiento de pagos, geolocalización, IoT, Streaming, traductor de idiomas, reconocimiento visual, entre miles. La velocidad de innovación en la banca se ha incrementado con la adopción de los nuevos esquemas de desarrollo, metodologías ágiles, cloud y uso de APIs. Aquellos proyectos de años son cosa del pasado. Se busca la entrega incremental a partir de un producto mínimo viable que puede ser construido en pocas semanas, y la validación constante de la experiencia de los usuarios y su adopción. Ante este escenario, las aplicaciones de Banca Digital deben replantearse y ajustar su arquitectura y forma de entrega. Deben evolucionar hacia una plataforma 2.0: Implementable sobre nubes públicas (IBM Cloud, Azure, AWS, Google, entre otras) con los mismos niveles de seguridad, o incluso mayores, que los Data Center de los bancos. Basada en componentes independientes o microservicios que ofrezcan funcionalidades integrables como piezas de lego, y que permitan así construir nuevas funciones más complejas. Abierta a integrar APIs de terceros para suplir funcionalidades completas o parciales en una forma transparente. Entregable a través de un toolchain de DevOps que facilite la integración y el deployment continuo a medida que se liberan nuevas funcionalidades o se modifican las actuales. Con mayor foco en la capacidad de construir nuevas funcionalidades rápidamente, partiendo o no de las existentes, aportando sus componentes a una metodología ágil de desarrollo. Con el poder de exponer las funcionalidades a través de cualquier forma de front-end (web, móvil, conversacional, redes sociales, entre muchos otros) o API. Un recorrido rápido por el catálogo de APIs de IBM Cloud para Financial Services nos muestra cómo un número importante de empresas de desarrollo exponen sus APIs para que puedan ser integradas en cualquier aplicación para Servicios Financieros, desde servicios para “Know Your Customer” (KYC),  Anti Money Laundering (AML), antifraude, contenido según geolocalización, inversiones en bonos, riesgo y cumplimiento, agregación de datos financieros, visualización de analíticos y data histórica, estadísticas de manejo de portafolios de inversión, generación de lenguaje natural, procesamiento de pagos, análisis predictivo de créditos, patrimonio de clientes, monitoreo de riesgo, blockchain entre muchos otros. Al consultar el roadmap de las plataformas de Banca Digital más reconocidas a escala mundial podemos constatar que algunos ya están tomando una dirección en este sentido. El resto aún está enfocado en entregar una solución para canales ahora tradicionales (banca en línea y banca móvil), con las funcionalidades comunes (consulta de saldos de productos, transferencias y pagos). El éxito futuro de las plataformas dependerá de su capacidad de transformarse para aportar valor en la dirección que los servicios financieros y sus procesos de innovación ya están recorriendo. La transformación digital alcanza incluso las bases y herramientas.

Los retos del testing en la Era Ágil

17 Mayo, 2018 | Las metodologías ágiles, SAFE, prácticas como continuos integration (CI) y DevOps han venido cambiando los procesos de construcción de productos de software.  El mercado requiere de entregas más rápidas y aplicaciones más flexibles que permiten transformar los servicios ágilmente para responder a las necesidades cambiantes de los clientes finales. Adicionalmente es indispensable que las entregas sean de calidad.  Para lograr este objetivo es necesario que los ciclos de testing también sean ágiles, lo cual representa un reto para las estructuras tradicionales como “waterfall”.  El cambio de paradigma conlleva considerar el proceso completo, es decir desde la concepción del producto o mejora del mismo, construcción y pruebas con el debido levantamiento de historias de usuario o casos de uso, hasta la implementación y soporte. Los procesos de integración continua y DevOps hilvanan todo el macro proceso productivo y la calidad no está exenta de ello, ya que esta práctica  debe asegurar tanto la calidad del proceso como la del producto y finalmente verse reflejada en la satisfacción del cliente y un retorno sano de inversión. Para ello, se hace necesario una estrategia de calidad que sea clara y realista que considera la situación actual con respecto a la capacidad productiva, nivel de madurez metodológico en la línea operativa y gerencial, así como la capacidad financiera (inversión), es decir la estrategia tiene que ser realizable desde la perspectiva financiera y operativa. Desde el área financiera, es necesaria una gestión del costo de la calidad de los productos, conociendo cuánto cuesta probar un sprint de manera que se puedan hacer los ajustes en períodos de tiempo cortos, con el fin de optimizar los procesos del equipo "solucionador" para el siguiente sprint o iteración  y así sucesivamente  hasta el cierre del release.   Poco se habla sobre la gestión del costo de la calidad y el foco mayor se ha dado en las capacidades técnicas, sin embargo una sana y efectiva gestión de este rubro permite al responsable conocer dónde exactamente se tienen los problemas y por consiguiente qué debe ajustarse para volver a medir y proseguir con la mejora continua. Sobre este mismo camino, también es importante el análisis de costos y beneficios, FODA o cualquier otro instrumento de medición que desde una visión negocio-técnica permita construir un ecosistema sano financieramente hablando. La ecuación debe contener las variables negocio, herramientas, procesos y personas. Negocio: Debe existir un claro alineamiento de los procesos del negocio con las estrategias de testing, donde se responda a las preguntas. ¿Qué realmente se ocupa testear? ¿Porqué? ¿Cuánto le cuesta al negocio una falla en este flujo? ¿Cuánto cuesta la hora de down time?   Herramientas: Es indispensable que las herramientas permitan obtener resultados rápidos y confiables para tomar decisiones técnicas y financieras entre un ciclo y otro. Un error muy común es comprar un set de herramientas por moda o carente de un análisis riguroso de las capacidades y/o características técnicas y operativas como se mencionó anteriormente. Es de vital importancia que las herramientas sean ágiles, flexibles, de fácil uso, implementación y configuración. Así también que sean robustas para que permitan reducir el tiempo de procesamiento de resultados y redistribución de costos de mano de obra calificada. Dando como resultado un aumento en el retorno de inversión del negocio en cada iteración realizada.  Otro aspecto relevante es la integración de estas herramientas con el resto de los componentes del ecosistema. Metodología/Procesos: Los marcos metodológicos y procesos realizan la amalgama entre las herramientas, el negocio y las personas. Sin embargo, son estas últimas quienes precisan de un claro liderazgo y cultura que les permita realizar el cambio de una manera organizada y debidamente gestionada. Personas:  El recurso humano es uno de los más importantes en este ejercicio. Es imprescindible que se tengan claros los siguientes roles: quién hace la estrategia de calidad, quiénes ejecutan y de los líderes tanto del área técnica como del negocio y usuarios finales. Cada uno tiene un papel claro en este ecosistema. Si se carece de claridad, es necesario definir las responsabilidad y sus roles n los procesos de definición, construcción, pruebas e implementación  y soporte previo la puesta en marcha de los procesos. Con las Metodologías Ágiles la calidad viene a ser responsabilidad de todos los miembros del equipo y bajo los principios ágiles de transparencia sumado a un sano y efectivo liderazgo se puede llevar a cabo un proceso “end to end”. La creación de los marcos de trabajo, la definición incremental y sostenida de KPI’s, capacitación y mejora continua (calidad de procesos) es indispensable para una efectiva adopción y cambio de paradigma.   Un aspecto clave es la medición y rendición de cuentas durante todo el proceso y realizada tanto por los desarrolladores como los testers.  Es importante hacer énfasis sobre el tema de la medición, ya que la tendencia es únicamente presentar indicadores operativos que no pasan de la mera exposición al líder técnico, sin embargo, la efectividad se encuentra en la creación de indicadores relevantes desde la perspectiva de costo, impacto y operación de manera que tanto los desarrolladores como los niveles superiores aprendan a interpretar los datos  y proyecciones  de manera que la toma de decisiones se haga de manera más estratégica (financiera/técnica), lo cual permite el enfoque de los recursos en los problemas que realmente son importantes y tienen un impacto directo en la operación afectando la percepción que se tiene del servicio. Como se ha visto, los cuatro pilares son igualmente importantes tanto en la definición estratégica como durante la adopción y evolución.  En conclusión, la calidad de un producto no es casualidad  y responde a una estrategia clara, así como una intensión desde todos los niveles de la organización iniciando por quiénes toman las decisiones. De lo contrario la imagen de la organización y el posicionamiento en el mercado puede verse afectado. 

De Cero a Uno para convertirse en el próximo Sun Tzu Digital

24 Abril, 2018 | Hace más de dos mil años, el intrépido comandante de la dinastía Zhou, famoso por sus estrategias de conquista y persuasión, compiló su conocimiento en el texto que hoy se denomina el “Arte de la Guerra”; donde él definía estrategia como “el supremo refinamiento en el arte de combatir los planes del enemigo” (Sun Tzu / 500 A.C.). Con el pasar del tiempo, esta definición ha ido cambiando y se ha adaptado de un entorno de guerra a un entorno más empresarial donde hay más variables y cambios tecnológicos que van afectando la definición del término como tal. Si hablamos de estrategia digital, los primeros pasos visibles ante el público se dieron en las décadas de los 80s y los 90s con la aparición de tecnologías como la Web, el correo electrónico, el e-commerce, los famosos chats, la computadora personal y los videojuegos. Aún cuando los medios digitales estaban comenzando a surgir en múltiples formas e industrias, su cuantificación dentro de la estrategia empresarial era mínima o nula. En esa época, la organización exitosa era aquella preparada para convertirse en una empresa con una estructura operativa estable, capaz de sostener la reproducción masiva de un bien o servicio. En este modelo de “Comando de Control” como lo denominan grandes firmas consultoras como McKinsey y Ernst & Young, lo más importante era producir la mayor cantidad posible para venderle a todo aquel consumidor que estuviera dispuesto a comprar ese bien o servicio convencido de su valor a través de canales análogos como la radio y la televisión; medios cuya variedad en la oferta de productos y alcance de audiencia eran mucho más pobres que los medios digitales actuales, pero para entonces garantizaban una audiencia promedio de 20 millones de fieles espectadores que estaban dispuestos a ver y oír todo tipo de publicidad desconectada de su realidad y sin rastro de sus preferencias con el afán de sintonizar su serie favorita ya que esa era la única experiencia disponible. La explosión de la burbuja dot-com en 1997, la masificación de las aplicaciones de chat, las interminables listas de correo electrónicos de spam, la pelea entre los motores de búsqueda y la novedad de las ventas por internet como Amazon; marcaron la llegada definitiva de una era de múltiples opciones. Así lo expone Seth Godin autor del libro “Purple Cow” y gurú del mercadeo digital, quien para ilustrar algunas opciones que ofrecen los medios digitales nos regala esta simpática analogía: “En una tienda local de alimentos saludables estilo buffet, ofrecen frito tempeh stir. Yo nunca lo compro. No porque no me gusta, pero porque siempre hay muchas otras cosas en el buffet que prefiero. Por eso no veo la televisión. En absoluto. Hay tantas otras cosas que prefiero hacer en ese momento. Broadcast TV fue una gran elección cuando no había otras opciones y cuando todo el mundo estaba viendo lo mismo, por lo que necesitaba verlo para ser educado. Sin embargo, ahora usted podría: • Administrar una pequeña tienda en eBay. • Escribir un blog diario. • Escribir una novela. Comenzar una comunidad en línea sobre su pasión favorita. • Ser voluntario para enseñar a un niño un idioma nuevo, en persona o en línea. • Aprender un nuevo lenguaje, verbal o de programación. Ninguna de estas opciones es perfecta. Cada una es mejor que la televisión.” La analogía anterior, revela la gran cantidad de opciones que se empezaron a popularizar en los 90’s, pero ¡cuánta información posee el consumidor para elegir la experiencia que más le atrae! Un estudio realizado por Global Information Industry Center de la Universidad de San Diego California a cargo del profesor Roger Bohn, Phd en Gestión de Negocios, reveló que el cibernauta actual se expone a 34 GB de información diaria. Según este estudio, para el 2008, la persona promedio con acceso a medios digitales, ya consumía hasta 350% más de información que en los años 80’s y éste porcentaje de consumo de información presenta una tasa de crecimiento anual de un 5.4%. Esta noción de opciones y de democratización de la información a través de los medios digitales, vienen a revolucionar de forma drástica el juicio del consumidor, donde éste es más consciente de su poder y posee más información para tomar la decisión sobre qué producto o servicio le da la experiencia que más le gusta. Según los laboratorios de experiencia digital de IBM, el 92% de las decisiones de compra del consumidor actual se basa en su experiencia digital. Los clientes no toman decisiones impulsivas y utilizan las opiniones de otros cibernautas para decidir sobre la marca de un producto o servicio que desean adquirir. Una vez que se deciden por cuál optar, procederán a compartir su experiencia con el resto de la comunidad en línea que al igual que ellos, esperan con ansias pistas en forma de reseñas o comentarios que les ayude a concretar la misma decisión. Es por esto, que el arte del manejo de las plataformas digitales debería jugar el papel del rey en el tablero de ajedrez de todo estratega de negocios. Es en el hecho de que el consumidor base su desición según la experiencia digital que atraviese, donde la sabiduría de nuestro célebre comandante cobra fuerza para establecer una nueva definición de estrategia digital. Sun Tzu expone lo siguiente “si conoces a los demás y te conoces a ti mismo, ni en cien batallas correrás peligro; si no conoces a los demás, pero te conoces a ti mismo, perderás una batalla y ganarás otra; si no conoces a los demás ni te conoces a ti mismo, correrás peligro en cada batalla”. Esta frase se traduce en que debemos aprovechar los medios digitales para conocer a nuestros clientes y al mismo tiempo trasmitirles un mensaje de lo que la empresa cree y valora en ellos. Partiendo de esta premisa, una buena estrategia se basa en crear canales digitales bajo los cuales podamos escuchar a los consumidores en sus diferentes estados y utilizar dicha información para personalizar su experiencia a través de toda la relación que el cliente sostenga con la organización. Entre las estrategias que el comandante utilizaría actualmente para cumplir con sus inmortales enseñanzas, se encuentran las siguientes: El primer paso para crear una sólida estrategia de compromiso con los clientes es desarrollar perfiles de audiencia, lo que en términos de Tzu significa conocer la “doctrina”. La doctrina implica conocer características cuantitativas y cualitativas de una persona, su rango de edad, lugar de residencia y poder adquisitivo; esas son sus características cuantitativas y las metas personales, hobbies e intereses, así como sus prioridades corresponden a las características cualitativas. Para obtener este tipo de información existen varias herramientas a utilizar dentro de los portales digitales, si su organización cuenta con una página web o aplicación móvil procure implementar CTAs (Call to Actions o Detonantes de Acción); éstos pueden ser tan simples como botones que desplieguen un tema preseleccionado de interés para el cliente con el fin de medir el tiempo de retención y validar su interés; hasta herramientas tan sofisticadas como un asistente cognitivo que detecta la presencia de un cibernauta para interactuar con él o ella preguntándole la información necesaria para construir su perfil mientras él mismo le facilita  lo que busca dentro del portal digital. Tal es el caso de Dollar Bank quién junto IBM Watson Customer Engagement desarrolló toda una aplicación web y móvil capaz de interactuar con el cliente y aconsejarlo sobre los diferentes productos del banco mientras recolecta información sobre sus preferencias. Una vez definidos los perfiles de audiencia hay que evaluar cuáles son los mejores canales digitales para comunicarse con ella. En el arte de la guerra este concepto se conoce como “terreno”; y consiste en probar los medios digitales que resultan más cómodos para que la audiencia exprese sus opiniones éstos pueden variar desde foros en línea en la misma página de la corporación hasta la recepción de comentarios en las redes sociales o blogs de opinión orientados a un tema afín. Liquid Newsroom, una innovadora compañía holandesa dedicada a desarrollar estrategias de mercado, con la ayuda de un motor especializado de inteligencia artificial; utilizó Watson Analytics for Social Media para analizar cada uno de los canales digitales de sus clientes y elaborar tanto un perfil de contenido como de canales de comunicación. A partir de esta información, desarrollaron una estrategia de contenido que al entregarla por el canal correcto aumentó la conversión de nuevos clientes. Otra de las variables importantes en toda estrategia es el “tiempo”  o  en  este  caso  valorar el estado en el que se encuentra el cliente en cuanto a la  relación  que  mantiene con la organización; es decir, si apenas está conociendo los productos que se ofrecen, si ya está convencido del valor agregado de sus producto si solo falta un empujón para que realice la compro si ya es un cliente recurrente y lo único que se debe hacer es cultivar su relación. Esta etapa de la estrategia   se conoce como dominar el “tiempo”, herramientas como Digital Experience Manager y Campaign Automation de IBM han ayudado a compañías aseguradoras como Blue California a crear portales web personalizables según los gustos y el comportamiento de los clientes. La información obtenida sobre el cliente al navegar a través de ellos es procesada por el Campaign Automation, donde el flujo automático creado para el cliente dispara el contenido personalizado según el estado en el que se encuentre el cliente. Una vez que se haya explorado la doctrina, el terreno y el tiempo, lo único que resta es el “mando”. En un contexto de estrategia digital corresponde a definir el contenido que se le ofrece al consumidor dentro de la experiencia que vive en cada uno de los portales de la organización que visita. Actualmente, el contenido es el rey, sin buen contenido ninguna plataforma digital proliferaría. Por eso, es de suma importancia crear contenido de afinidad al tema que trata la organización, y que al mismo tiempo tenga el ADN del cliente impreso en el mensaje que muestra. En IBM Cloud existen herramientas llamadas “boilerplates” que corresponden a aplicaciones digitales preconcebidas que con la simple integración de servicios como Personality Insights de Watson permiten construir aplicaciones digitales capaces de analizar el comportamiento del usuario con respecto al contenido dispuesto en las mismas. De esta forma, se puede analizar qué tipo de contenido es el adecuado para cada una de las plataformas que se dispongan.  Estos cuatro factores se adaptan a lo que en GBM conocemos como “trasformación digital”, donde se implementan tecnologías de la información para dar paso a nuevos modelos de negocio. El concepto busca reducir costos operativos, mejorar métricas de lealtad a través de experiencias diferenciadas y automatizar de los procesos de negocios. Sun Tzu revela que aquel general que domine estas cuatro virtudes: la doctrina, el terreno, el tiempo y el mando a través de un proceso de mejora continua nunca correrá peligro ni en mil contiendas. Así que ahí lo tiene, los cuatro factores de éxito para que su estrategia digital esté a prueba de cualquier mercado.

Elija una estrategia para su transformación digital

19 Abril, 2018 | Para GBM el cliente es el centro de todos los procesos. Según datos del Instituto para el Valor Comercial y Centro de Información Aplicada de IBM, el 90% de los consumidores esperan una personalización en los servicios que ofrecen los negocios, razón por la que el cliente se convierte en el principal motor para que las empresas adopten tecnologías y procesos de virtualización. Para esto, es importante una estrategia de transformación digital, que (dicho sencillamente) es la aplicación de tecnologías para implementar modelos de negocio innovadores, mejorar la experiencia del cliente y optimizar la operación con el objetivo de hacer disruptivo un negocio. Los procesos de transformación digital deben construirse de afuera (experiencia del cliente) hacia adentro (modelo de negocio y procesos). GBM cuenta con un modelo de transformación digital que incluye: Capacidades de liderazgo: para restablecer una visión estratégica en toda la organización, con el debido proceso de comunicación y empoderamiento del equipo, y así dar gobernabilidad y generar compromiso. Capacidades digitales: la mejora de los procesos de operaciones es fundamental, lo cual permite enriquecer la experiencia del cliente y establecer nuevos modelos de negocio. Un “roadmap” digital: contar con un mapa de ruta organizacional, con objetivos claros y con KPI’s definidos, pero siempre dejando espacio a la innovación y la mejora continua. Con la globalización y el aprovechamiento de las tecnologías, las barreras de todo tipo han sido derribadas y, según las estadísticas, una idea disruptiva puede generarse e impactar un modelo de negocio en 12 o 18 meses. Los planes estratégicos ya no son de 10 ni tan siquiera de 5 años, las empresas prefieren planear a 2 años y realizar revisiones exhaustivas al menos cada 6 meses. Actualmente, la estrategia de GBM as a Service (XaaS) le ha permitido liderar el mercado y continuar asesorando a sus aliados de negocio​ en los procesos de transformación digital.​ Más del 30% de sus clientes lo son también de empresas como Amazon, Apple o Google, cuyo enfoque está 100% orientado en mejorar la experiencia del cliente y convertir a sus usuarios en fans de sus productos y servicios. Sus clientes no esperan menos de la relación que tienen con su empresa, por lo que si no está realizando esfuerzos en ese sentido, alguna compañía más, que incluso ante nuestros ojos puede parecer insignificante, sí va a hacerlo y puede impactar profundamente el modelo de negocio.   Panamá: 2 personas

El agilismo empieza en la mente

19 Abril, 2018 | Las metodologías ágiles, la holacracia (sistema de organización en el que la autoridad y la toma de decisiones se distribuyen de forma horizontal), la quinta disciplina y otros métodos que han emergido en los últimos quince años, son más que marcos de trabajo. Si se observa con más detalle se puede determinar que éstas forman parte del cambio hacia procesos de trabajo colaborativos y libres de pesadas estructuras monolíticas cargadas de narcicismo. En el caso de “agile” no solo se modificaron las prácticas de desarrollo de software, sino también todos los procesos asociados a éste. Como consecuencia, se hicieron cuestionamientos como los siguientes: ¿Cómo puedo generar valor de manera rápida? Realmente, ¿qué se quiere lograr con este aplicativo? ¿Cuánto valor estoy agregando a mi cliente, o a la industria? Para finalmente darse cuenta de que se ocupa un enfoque cliente céntrico. Se trata de las necesidades y problemas de nuestro cliente no de mí. El trabajo colaborativo requiere de un cambio de paradigma hacia el pensamiento conjunto, a través de diferentes enfoques hilvanados por la sinergia y aportes de individuos enfocados en el nosotros y no en el “nosotros y ustedes” (Vinasco, 2017). Esto no surge de manera vertiginosa, como todo cambio cultural, toma su tiempo. Es importante tener este aspecto claro. Así como el hecho de que la gran mayoría de las organizaciones surgieron bajo la sombra de teorías administrativas clásicas donde unos cuantos toman las decisiones, la responsabilidad se concentra en algunos roles, y los demás miembros cumplen tareas sin entender claramente el ¿porqué?, y el ¿para qué?. Es de extrañar por qué en pleno siglo XXI tenemos esta situación, si desde el siglo pasado teorías administrativas como las de sistemas del comportamiento, de relaciones humanas y otras más, ya venían vislumbrando que el enfoque de Fayol puramente funcional no desarrollaba el potencial del pensamiento humano y mucho menos el pensamiento grupal (Rojas, 2017). Lo cierto es que, tal se puede ver el auge de estas técnicas obedece a un proceso que venía gestándose hace muchos años atrás por diversos herejes que se atrevieron a cuestionar el “estatus quo” y probar con nuevas formas de hacer las cosas, que al final de cuentas como nos muestra la historia, es como el ser humano y la sociedad han evolucionado; es decir, cuestionando constantemente y buscando nuevas formas de hacer las cosas. Estamos en plena era de la industria 4.0, donde la automatización y digitalización en todas las industrias son imperativas en los próximos cinco años. Vivimos en un mundo menos predecible, por tal razón los marcos de trabajo ágiles y colaborativos son indispensables si las industrias quieren permanecer y repuntar. Cada día mueren y nacen empresas, aquellas que sobrevivan necesitan un replanteamiento de sus estructuras orgánicas, así como cambios profundos en la cultura de trabajo y finalmente en su operativa. A esto, debemos sumarle una llegada de más millenials y Z a los puestos de trabajo, los cuales tienen estructuras de pensamiento diferentes que requieren conocer el porqué y para qué de las cosas; hay que recordar también que estos grupos generacionales experimentan ciclos de cambio más cortos. Como se puede ver, estamos frente a una gran coyuntura social, económica y tecnológica. Por tanto, el trabajo se vuelve más retador para quienes se encuentran en posiciones de mando. Es por ello que la agilidad y la colaboración se vuelven un pilar básico en el ADN de la cultura organizacional. Ahora bien, es fácil perderse entre tanto material y falso gurú que pregona en las calles su falsa experiencia en el campo de trabajo. Por tal razón, desde la junta directiva, el C-level y los gerentes de línea requieren estar atentos a los cambios que se están dando en las industrias y en los mercados laborales. Las cosas están cambiando, por tanto, es necesario ajustar las velas si se quiere llegar a buen puerto. Surge entonces la duda, con este panorama, ¿Por dónde debo iniciar? Lo primero que debe ocurrir es que se tenga una consciencia de la situación coyuntural desde la cúpula. Posteriormente, es necesario el entendimiento claro de las opciones existentes, casos de éxito y fracaso para tener más contexto. Para luego establecer la estrategia y dar inicio a las tácticas y planes operativos. Siempre tomando en cuenta que se debe arrancar con planes piloto para conocer la magnitud del cambio. Se debe tener claro que no se trata de la adopción por moda o de innovación por derrame (OECD, 2005). Como lo indica Peter Senge en su libro la quinta disciplina (Senge, 2006), se trata de crear organizaciones inteligentes donde la innovación no se logra hablando de nuevas ideas, sino de construir prototipos para hacer cosas que realmente generen valor a nuestros clientes o mejoren significativamente nuestros procesos. Cada individuo debe conocer muy bien sus responsabilidades, actuar por pericia y menos por delegación tradicional. Son necesarias organizaciones que aprendan y desaprendan, que sean inteligentes (Senge, 2006). Se requiere desarrollar inteligencia social que le permita a la empresa “dialogar con su cliente”, que sea capaz de interpretar qué ocupan y qué está haciendo el mercado. Y sobre todo, desarrollar ese diálogo interno para que de manera ágil se responda a los cambios constantes. Para ello, la inteligencia colaborativa es indispensable. Muchas empresas han incursionado en cambios cosméticos y superficiales; los cuales son a corto plazo y no logran profundizar en las personas. Muchos se preguntarán ¿por qué? La respuesta es porque no hay convencimiento. Esto se trata de un cambio del hacer al ser. De adentro hacia afuera. La ruptura del paradigma del yo o del nosotros comienza dentro de las personas y se evidencia en sus interacciones, transparencia, adaptación, espíritu de servicio, respeto y valor a la ideas de los demás, así como de valentía para saber cuándo callar y seguir a otro que no sea yo. Una vez que realmente se vivan estos valores, la adopción es sumamente fácil pues el cambio es profundo y genuino. Sin embargo, para ello, se debe cumplir lo que indica John Maxwell, “la gente hace lo que ve” (Maxwell, 1998). Estos valores deben vivirse de manera auténtica por los superiores. Como se ha visto, todos los enfoques de trabajo ágil y colaborativo tienen bases muy simples, donde se tiene un balance entre autonomía y rendición de cuentas.  Tal como se visualiza el panorama, las organizaciones o se vuelven ágiles y realmente centradas en el clieente o simplemente mueren. Ahora surge la pregunta más importante, ¿está usted realmente listo para este cambio? En conclusión, antes de arrancar con un cambio estructural y cultural hacia metodologías ágiles o colaborativas, es necesario asegurarse que desde los niveles más altos de la organización se tiene el conocimiento y convencimiento de la nueva vía a seguir. Este grupo debe facilitar el apoyo completo al conjunto de personas responsables de definir y liderar el cambio, los cuales requieren de un conocimiento claro tanto teórico como práctico, así como una gestión del cambio desarrollada en conjunto con el equipo de recursos humanos. Un aspecto importante es contar con apoyo de expertos o partners que hayan vivido el proceso, pues la retroalimentación es muy provechosa. Se puede hacer uso de diversas comunidades nacionales e internacionales que pueden compartir sus experiencias de éxitos y fracasos. Es vital arrancar con algún plan piloto donde se pueda vivir la experiencia en primera persona y se permitan ajustar de manera rápida los procesos y roles de manera que los individuos de las diferentes áreas participen de manera colaborativa e interactiva con sus clientes. Las personas deben ser empoderadas, capacitadas y motivadas a aprender haciendo sin dejar de lado que mientras se construye se debe continuar dando valor a los clientes. Y, finalmente, estar claros que esto es un cambio profundo de identidad de la organización y de sus diferentes estructuras de poder.    

GBM impulsa la nube híbrida

19 Abril, 2018 | La nube híbrida es un habilitador de la transformación digital en su forma más eficiente. Con las tecnologías actuales cada vez más organizaciones requieren servicios en la nube. Por eso, GBM ofrece opciones de migración automatizada para garantizar el mínimo impacto en la operación de las compañías. Según el estudio de IDC CloudView Survey 2016, más del 51% de las organizaciones consultadas esperan que la mayor parte de sus capacidades de TI se distribuyan a través de algún tipo de servicio cloud, ya sea público, privado o híbrido, dentro de dos años. Además, el 80% de las empresas a nivel mundial implementarán arquitecturas de nube híbrida en 2018. La nube híbrida de GBM, que es la combinación de la privada y la pública, maximiza los beneficios al aprovechar la escalabilidad, reducción de costos e innovación de la nube pública, al mismo tiempo que aprovecha las inversiones ya realizadas por las empresas. Sin embargo, cualquier esfuerzo de nube debe contar con un objetivo de negocios claro que lo respalde y, consecuentemente, una hoja de ruta o “roadmap” que finalmente aterriza a un plan técnico definido. GBM ha desarrollado una metodología prescriptiva para analizar, con herramientas y personal especializado, el entorno de TI y conectar las posibilidades tecnológicas de la empresa con el futuro del negocio, estableciendo una hoja de ruta realizable con retorno de la inversión. “La principal ventaja de nuestra nube híbrida es que permite integrar la eficiencia, elasticidad e innovación existente en la nube pública sacando provecho de sus recursos en su nube privada de forma segura inclusive con aplicaciones tradicionales. Así, maximizamos su inversión sin sacrificar el cumplimiento y seguridad, lo cual nunca es una opción”, comentó Eric Arosemena, Gerente de Nube Híbrida de GBM. GBM cuenta con marcos de referencia consultivos y tecnológicos que le permiten avanzar en las tres etapas fundamentales de este proceso: Planeación, Migración y Operación. Para la planeación, servicios como “Smart Advisory” cuenta con un equipo de expertos consultores de procesos, tecnologías y nube para definir un modelo de adopción basado en las necesidades del negocio, pero tomando en cuenta sus recursos actuales. La recomendación final es una hoja de ruta o “roadmap” con tareas específicas para adecuar su entorno (si aplica) y recomendar el modelo ideal de adopción de cloud con entregables de valor en cada hito. “Entregamos soluciones híbridas de Infraestructura como Servicio (IaaS) con “Smart Capacity”, ya sea en las instalaciones del cliente o en la nube. No solo ofrecemos servicios para ambientes tipo Intel, sino también tecnologías IBM Power a las cuales sumamos servicios de operación y administración. Además, contamos con 7 centros de datos interconectados entre sí y a las grandes nubes públicas como IBM Bluemix, Microsoft Azure y otros”, agregó Arosemena.  GBM ofrece también servicios básicos como máquinas virtuales, almacenamiento en la nube, respaldo de datos e inclusive soluciones de recuperación de desastre probadas, como por ejemplo, para ambientes SAP entre otros. Estas soluciones no solo se limitan a la infraestructura “per sé”; sino que incluyen el software de integración y aplicativo necesario como parte del servicio, además de las tareas para la administración, operación y soporte.

El sentido de tener solo un socio de nube

19 Abril, 2018 | El ser humano no es multitasking como muchos creen, el cerebro es un procesador de información serial, debe enfocarse en una cosa a la vez para hacerlo bien. Cuando esto se extrapola a los negocios, y se dispersa en tareas que no son su foco de éxito pierde eficacia, cosa que hoy día hace la real diferencia competitiva. Ser inteligente en el mercado de hoy, se ha convertido en delegar y exigir resultados basados en la confianza de las contrapartes, medidas con las pruebas de sus certificaciones, reportes de rendimiento y percepción del mercado. Para poner un ejemplo: es que la percepción del servicio de un vendedor de eBay va ligada con la calidad y velocidad de las entregas de sus pedidos, de forma que el vendedor debe hacer pocos envíos realizados por él mismo, o delegar en una empresa que empaque y entregue, para lo cual, hace su propia evaluación de proveedores y termina escogiendo los proveedores que cumplan con sus estándares de servicio y diferenciación. Este mismo fenómeno ha llegado a nuestros Centros de Datos y servicios de TI. Lo que creíamos que era el núcleo de nuestro negocio (el Centro de Datos), ahora se ha convertido en nuestro eslabón más débil y costoso, debido a la economía de escala. De forma similar a lo que sucedió con la primera y tercera revolución industrial, dígase, precio por cantidad que ofrecen los servicios de nube, entendiendo que no estamos hablando solo de hardware y software (que si está en el paquete), sino de todo el conjunto operativo, incluido el personal. Como en anteriores revoluciones industriales hay múltiples incógnitas, de las cuales se desprenden miedos, resistencias, y atolondramientos. Para ser más específico; los nuevos sistemas de TI, tienden a reducir la necesidad de personal en las empresas, pero al mismo tiempo crean una dependencia alta en el proveedor, en el que recae toda la responsabilidad de entregar un servicio consistente, eficaz y sobre todo, más económico. Todo esto apunta a un pragmatismo de reducción de costos enfocado en una operación más eficiente y por ende más rentable para los accionistas. El instituto 451 Research ha conducido un estudio sobre cómo las empresas ven su panorama de consumo de servicios cloud; y uno de los grandes hallazgos fue que el 62% de las empresas de las más de 1700 encuestadas están inclinadas a delegar la administración de sus plataformas cloud en una empresa de servicios por tres razones principales: para enfocarse en sus operaciones neurálgicas, maximizar el retorno de inversión y aunque no lo parezca, la garantía de la seguridad de la información. Esto último, apunta según mi criterio a que, el negocio de la empresa que presta el servicio de nube es vital, ya que su buen desempeño depende la continuidad de la relación, y en el caso de un incidente cual sea, la mayor parte de las penalidades recaerán sobre este tercero, porque es el responsable contractualmente de las plataformas y la información en ellas contenidas. Para esto, más que seleccionar una solución, se debe escoger un socio que ofrezca: Ventajas de flexibilidad en términos de localidades para ubicación de servicios por cumplimientos regulatorios, recuperación de desastres regionales, servicios heterogéneos para cubrir el real abanico de necesidades; como por ejemplo IaaS de nube privada o pública, ERP y CRM administrados, servicios  gestionados  de impresión, archivado, respaldos, bases de datos, portales, networking, comunicaciones unificadas, y todo esto con las mejores prácticas y servicios de seguridad de la industria. SLA (Service Level Agreement) respaldado económicamente, y esto no es soloquesecumplansinotambiénajustarlos para adaptarse a los requerimientos de industria. No es lo mismo el SLA de RTO (Recovery Time Objective) para un banco que para bienes raíces. Esto porque detrás de un RTO hay involucradas muchas soluciones y métodos que pueden encarecer vertiginosamente, pero un socio responsable ofrecerá la solución que se ajuste a los requerimientos de la industria o del cliente mismo. Condiciones económicas ajustadas al presupuesto, esto es: un contrato de pagos periódicos que minimizan el TCO (Total Cost Ownership) y maximicen el ROI (Return On Invesment) en los plazos estratégicamente trazados por el cliente. GBM está enfocada en mejorar las condiciones de sus clientes con soluciones acorde a los retos de sus propias industrias. En esta cuarta revolución industrial es vital contar con un líder de mercado que domine los desafíos de la Nube para el beneficio de todos.

Una función cambiante

19 Abril, 2018 | El oficial en jefe de información (CIO, por sus siglas en inglés) desempeña un papel crítico y cambiante en todas las organizaciones.  Empezó como el jefe de cómputo o de procesamiento de datos, y en los últimos 25 años su responsabilidad cambió profundamente. En un inicio, se le pedía que mantuviera el centro de datos funcionando y los problemas al mínimo, pero conforme la tecnología se fue transformando, cada vez más rápido, la importancia estratégica de la información (y de la tecnología requerida para manipularla) fue creciendo. Desde hace unos 15 años, el CIO reporta  al más alto nivel de la organización, y para eso, debe dejar de lado la jerga tecnológica y compenetrarse totalmente con el negocio (o servicio público) de la organización, mas nunca puede dejar de entender la tecnología, y, en especial, la más reciente. Hace 20 años, el reto era la adopción de Internet para uso corporativo, y con ello,  el comercio electrónico con todos sus problemas de seguridad y competitividad. Hace 15 años eran las redes sociales, luego fue la movilidad, después la nube, big data e Internet de las Cosas. Hoy es la inteligencia artificial, mañana es blockchain, y quién sabe qué van a inventar pasado mañana. Nuevo perfil. El CIO ya no es ni nunca puede volver a ser una persona netamente técnica; es, primero que todo, gerente. La gestión de la utilización de la tecnología crece en complejidad más que proporcionalmente al desarrollo de las tecnologías. Esto porque las tecnologías viejas no desaparecen al ritmo que aparecen las nuevas, se suman, se integran (a veces a medias) y la complejidad crece. Cuando los sistemas fallan, el CIO es el villano. La expectativa es que todo funcione 24/7 y que las nuevas tecnologías se adopten de manera indolora (casi imposible de lograr). Durante muchos años se dijo que las mejores noticias que un CIO podía producir era ninguna noticia (porque todas las noticias que daba eran malas: se cayó el sistema, se atrasó el proyecto, hackearon el sistema, etc.), pero eso también está cambiando. Conforme el papel del CIO se vuelve más estratégico, las noticias son más bienvenidas. Por ejemplo, cuando se decide ofrecer a clientes o usuarios un canal digital (mejorando la calidad del servicio y reduciendo los costos) todos quieren oír la noticia del servicio disponible. La transformación digital, que necesariamente deben sufrir todas las organizaciones, no es responsabilidad exclusiva del CIO, pero el liderazgo necesario para entusiasmar a sus colegas debe venir de algún lado. Transformar las operaciones y las relaciones con clientes o usuarios y proveedores para desmaterializarlas (sin papeles) y hacerlas más eficientes y eficaces, requiere de algo más que tecnología; requiere administración del cambio. Esta es una tarea muy delicada cuando se cambia la rutina de la gente, y mucho más delicada cuando se reemplaza o desplaza personal. Acortamiento. El tiempo promedio del CIO en el puesto se ha estado reduciendo en Estados Unidos y en Europa. Aquí no sabemos. Algunos piensan que el ritmo de cambio de la tecnología es el responsable de la erosión que parecen estar sufriendo los CIO. Al ser menos técnicos y más gerenciales, se les torna más difícil entender los nuevos desarrollos y separar la ciencia de la mercadotecnia. Para entender la tecnología y sus implicaciones, es necesario  leer,  estudiar y, sobre todo, conversar. Conversar  con sus pares de otras organizaciones y  con sus subalternos técnicos para entender e imaginar aplicaciones prácticas de las nuevas tecnologías. Como el trabajo del CIO no es solo adoptar nuevas tecnologías, debe mantener, además, funcionado todo lo que había antes. Cada vez que implementan algo nuevo, crece la cantidad de lo que debe mantener funcionando, y, con esto, crece la complejidad de lo que está bajo su responsabilidad. El aumento en complejidad y en cantidad de asuntos, a su vez, reduce el tiempo disponible para estudiar el futuro, pudiendo empezar así, el final del ciclo. Dada la cantidad de nuevas tecnologías, así como la velocidad con que se desarrollan, es imposible adoptarlas todas. Trabajo de asesor. Otra función más o menos nueva del CIO es ayudar a la organización a decidir cuáles tecnologías adoptar y cuáles dejar pasar. Esto es más fácil decirlo que hacerlo, sobre todo porque algunas tecnologías habilitan el diseño de nuevos modelos de negocio, los cuales suelen traer severa disrupción a sectores previamente estables y con participantes conocidos. La tecnología es un arma clara, y muchas veces decisiva en la nueva era de la hipercompetitividad, y, como todas las armas, suele ser de doble filo. Una tecnología mal adoptada puede destruir una organización. Una tecnología que se decidió dejar pasar, en manos de un competidor puede cambiar para siempre la suerte de una organización. Las organizaciones del sector público, con frecuencia, dado el carácter monopólico de sus actividades, suelen creer que están exentas de estas amenazas, pero es muy peligroso dormir de ese lado. Cada día hay más ejemplos de tecnologías que hace obsoletos servicios públicos e irrelevantes a los reguladores. Tiempos de cambio. No es obvio en qué dirección cambiará el papel del CIO, pero sí es obvio que seguirá cambiando. Las organizaciones que no cuentan con un CIO (por ejemplo, el Gobierno de Costa Rica) navegan a la deriva en aguas turbulentas. La organización feudal, en donde cada dependencia o división o departamento hace lo que mejor le parece, padece de una discapacidad de la que solo se benefician los proveedores de tecnologías.Para que una organización cuente con un CIO, primero debe entenderse el papel cambiante de este y, luego, hay que encontrar a la persona capaz de ejercerlo. El perfil de dichas personas no es claro ni sencillo. Entender las nuevas tecnologías, mostrar capacidad gerencial, contar con amplia experiencia en el giro del negocio y saber que el papel cambiará de maneras impredecibles, todo al mismo tiempo, es difícil, mas no imposible de encontrar.

Cognitive Revenue Growth Management en la nueva industria financiera

19 Abril, 2018 | El concepto “Revenue Growth Management” (RGM) fue creado en los años 70 por la industria aeronáutica que vivía difíciles circunstancias como consecuencia de los altos precios que alcanzaron los combustibles. Dentro de las acciones más destacables que se hicieron, y que podemos ver hasta nuestros días, están las alianzas entre competidores para compartir destinos y llenar lo más posible los aviones, así como la creación de distintas clases dentro de los aviones. El futuro de los servicios financieros La industria financiera es una de las que está viviendo las mayores y más aceleradas transformaciones de la historia. Cuatro aspectos son el motor de esta situación: La acelerada apertura de los mercados de servicios financieros, con la eliminación de las barreras para-legales. En concreto, esto quiere decir que en un futuro cercano vamos recibir ofertas de créditos de consumo desde cualquier banco del mundo. Las empresas Fintech, que están sacando continuamente soluciones para partes de la cadena de valor de los servicios financieros en forma mucho más eficiente que los grandes jugadores. Esto está generando una enorme fragmentación y especialización en la cadena de valor, especialmente en lo que dice con relación en las plataformas de pagos. Blockchain y Cryptomonedas:​ Muchas empresas se están metiendo en los negocios de la banca. Por ejemplo, UBER cuando comenzó a operar en EEUU, debió sacar cuentas corrientes para aquellos conductores que no tenían cuentas bancarias. Uno de las empresas con mayores depósitos en China es Alibaba, que tiene cuentas corrientes para sus clientes. La plataforma blockchain es una base de datos formada por bloques y copiada en miles de servidores a nivel global. Cada bloque graba miles de transacciones que se desencriptan después de unos minutos y estos bloques quedan literalmente “fosilizados” por lo que son imposibles de hackear. Así, las plataformas blockchain se constituyen en las más seguras, lo que es ideal para los servicios financieros. Se genera una descentralización de la confianza y la certificación lo que implica que ya no se necesitan intermediarios. Este aspecto, genera mucho temor en la industria financiera. Existen dos tipos de blockchain, los corporativos y los abiertos. Los blockchains corporativos brindan muchas ventajas para las empresas de servicios financieros en el sentido que están diseñadas para una rápida integración a las plataformas del negocio y con niveles de seguridad muy altos. Una de las mejores es el IBM BLOCKCHAIN que, además de tener altos estándares de operación y seguridad, esta diseñada para trabajar en conjunto con la plataforma de inteligencia artificial IBM WATSON. En el caso de las plataformas abiertas, existen miles de “Miners” que tienen copias de la base entera del blockchain. Estos miners al realizar diversas labores, que los obligan a mantener la base de datos, reciben cryptomonedas que se generan automáticamente por la plataforma. Es decir, la plataforma se “auto-sostiene”. Una de las aplicaciones más utilizadas es la capacidad de hacer transferencias internacionales en 10 segundos con el uso del blockchain y la cryptomoneda ethereum. Si comparamos esto con los típicos códigos “SWIFT” que demoran varios días en hacer transferencias internacionales, podemos ver la revolución que se está produciendo. Muchas empresas se están metiendo en los negocios de la banca. Por ejemplo, UBER cuando comenzó a operar en EEUU, debió sacar cuentas corrientes para aquellos conductores que no tenían cuentas bancarias. Uno de las empresas con mayores depósitos en China es Alibaba, que tiene cuentas corrientes para sus clientes. Cognitive Revenue Growth Management La   gran   pregunta   para   la   industria   financiera   es   entonces ¿Cómo generar un mayor  EBITDA  (beneficio  antes  de  intereses,  impuestos,   depreciaciones   y   amortizaciones)   en este   nuevo   ecosistema   financiero   que   cambia   permanente?  El “Cognitive Revenue Growth Management” (CRGM) es una herramienta que permite a las organizaciones transformarse en empresas cognitivas de manera que puedan sacar provecho a cualquier escenario de cambio acelerado.  El CRGM es una metodología que combina las herramientas del Revenue Growth Management tradicional con aquellas cognitivas (Inteligencia Artificial, Big Data, Machine Learning, Deep Learnning, etc). El CRGM permite a las empresas financieras tener las siguientes capacidades para el crecimiento estratégico de sus ingresos: Capacidad de identificar y abordar integralmente todas las oportunidades de crecimiento ventas: No se trata solamente de identificar las oportunidades de crecimiento sino de poder abordarlas generando ventajas competitivas sostenibles. Las capacidades cognitivas del CRGM, permiten utilizar data no estructurada (80 % - 90 % del total) y estructurada para la generación de insights acerca de nuevas oportunidades de ingreso, con vistas 360º acerca los clientes, canales y segmentos de negocio. El CRGM genera insights de la interacción de las principales variables del negocio financiero como lo son la regulación, clientes, spreads, tasas de interés, pricing, riesgo, comisiones, competencia, fidelidad y sustitutos, entre otros. Todo lo anterior, en coherencia con la estrategia y modelo de valor de la empresa. En esta nueva lógica, gracias al entendimiento común y homogenización de la data y de las recomendaciones de negocio, las áreas funcionales de las empresas dejan de ser silos aislados y comienzan a  interactuar  en   tiempo   real en pos del aumento estratégico de ventas. En particular, las áreas comerciales y de marketing comienzan a actuar como un cuerpo único en las acciones de crecimiento estratégico de ventas, considerando clientes, canales y segmentos de negocio.  Capacidad de generar soluciones integradas con los mejores clientes: En un ecosistema financiero que cambia tan aceleradamente, el CRGM permite lograr coordinaciones e integrar estratégicament a los mejores clientes en una cadena de valor común. En efecto, los segmentadores cognitivos homogenizan información muy dispersa y el uso de algoritmos predictivos generan estimaciones acerca de las propensiones del comportamiento de las variables de negocio más importantes. Las negociaciones tradicionales donde se entrega una cantidad su cinta de información al cliente para tener un mayor “poder de negociación”, se sustituye por una coordinación estratégica de alto nivel con el cliente, considerando incluso la colaboración interfuncional con las áreas del cliente. En el CRGM el valor está más en el uso estratégico de la información con el cliente que en el “poder de negociación.” (Ver figura 3) Capacidad de tomar acciones de aumento de margen en forma holística a las variables más importantes del negocio: EL CRGM no solo permite tener una mirada 360º de los clientes, canales y segmentos de negocio, sino también de las relaciones funcionales de éstas con las comisiones, tasas de interés, spreads, mercados de instrumentos financieros, regulaciones, así como la cantidad y tipos de servicios y productos. La capacidad de gestionar holísticamente los ingresos de la cartera de servicios financieros, permite lograr un alto nivel de diferenciación en el abordaje de cada segmento e incluso a nivel de clientes individuales. Por ejemplo, se pueden recibir recomendaciones cognitivas a nivel muy granular, considerando al resultado final como las variables a optimizar (comisiones, tasas de interés, spreads, riesgo, participación de mercado, etc.) Strategic omnichannel revenue: En el CRGM no se trata de tener omnicanalidad porque “se debe tener”, sino de cómo se gestiona estratégicamente la omnicanalidad para el aumento de ingresos y de la rentabilidad. El CRGM permite utilizar las variables de negocio desde un nuevo entendimiento multidimensional, donde se pueden entender las potencialidades de ingreso y el impacto de acciones comerciales estratégicas desde todos los ángulos de la cadena del valor propia, de la industria, de los clientes y de las variaciones de las regulaciones que hay entre países. Coopetition: Incluso, es posible acceder a nuevos mercados   de la mano de competidores que también tienen el interés de rentabilizar sus infraestructuras de negocio. En algunos mercados se es competidor y en otros aliados. Por ejemplo, en el negocio del Wealth Management, se ve mucho el caso de que las empresas compiten a nivel comercial, pero son aliadas en el uso de sus infraestructuras de negocio (clearing, optimización tributaria, construcción de fondos mutuos, servicio al cliente). El CRGM permite sacar el máximo provecho de estas oportunidades de “coopetición” al tener reglas de negocio y de las variables de estas alianzas, minimizando los costos de supervisión y de conflicto entre las partes. Capacidad de Tomar Decisiones Más Rápidas y Mejores, Utilizando la Enorme y Creciente Cantidad de Información Disponible: El CRGM, permite generar insights predictivos de la competencia, de la interacción de los clientes con los servicios financieros de la competencia, de elasticidad cruzada de tasas y comisiones e incluso llegar a nivel de clientes individuales Estas capacidades, integradas a los procesos de la empresa y a las reglas de negocio, permite tomar acciones comerciales con mucho mayores probabilidades de éxito. Gracias al machine learning, con el tiempo, las recomendaciones que entrega el CRGM van mejorando en su capacidad de predicción.

NIST declara insegura a la autenticación con doble factor basada en SMS

19 Abril, 2018 | Durante los últimos 20 años, hemos pasado de conducir negocios  y  entablar  charlas  en persona o vía telefónica a construir interacciones exclusivamente digitales. En particular, los usuarios de hoy quieren comunicarse con las organizaciones e instituciones financieras desde sus smartphones y tabletas, y asimismo esperan que las compañías cuenten con una fuerte presencia digital. El comercio electrónico, el cual involucra desde subastas en eBay y compras en Amazon hasta transacciones financieras en portales online y aplicaciones móviles, está creando la necesidad de fuertes procesos de autenticación que prevengan ciberataques y fraudes electrónicos. En los albores del nuevo milenio, los cibercriminales lanzaron los primeros esquemas de secuestro de cuentas online utilizando credenciales robadas. Como contramedida, las instituciones financieras implementaron el envío de un factor de autenticación adicional a través de mensajes SMS. Con este sistema, los usuarios recibían una contraseña de un solo uso (OTP) a través de un mensaje SMS con el fin de que verificaran una transacción online. Signal System 7 o SS7 era el lenguaje estándar empleado para enviar mensajes de texto alrededor del mundo. Sin embargo, las redes de telefonía móvil estaban diseñadas para ser convenientes, no seguras, y SS7 no era la  excepción. Esta red fue concebida con el propósito de brindar una cómoda experiencia a usuarios en movimiento, permitiéndoles establecer llamadas ininterrumpidas sin importar que estuvieran en una autopista o en un tren de camino a su trabajo. La adopción de mensajes SMS para transmitir información sensitiva es el perfecto ejemplo de un patrón muy común en la protección de datos cuando nuevos métodos de autentificación o productos digitales son lanzados al mercado, la experiencia de usuario y el afán de llegar a los consumidores se convierten en una prioridad por encima de la seguridad, la cual es muy a menudo vista como un obstáculo para la competitividad. No fue sino hasta 2008 que las vulnerabilidades de seguridad en SS7 fueron dadas a conocer. Resultó que las contraseñas OTP enviadas a través de mensajes SMS podían ser interceptadas, y lo peor era que en la mayoría de los casos dichas contraseñas eran enviadas sin ser cifradas. Normalmente, la contraseña de un solo uso debía ser ingresada en la misma página transaccional donde el usuario suministraba su nombre y contraseña tradicional. Pero si el dispositivo o la página ya habían sido comprometidos por el malware, los criminales obtenían la capacidad de recolectar todas las credenciales de acceso, incluyendo la contraseña OTP. De esta forma, las cuentas de un usuario quedaban a merced de los estafadores. A inicios de ese año, una de las vulnerabilidades de SS7 fue explotada con el fin de burlar el sistema de autenticación con doble factor de varios bancos alemanes. Estos bancos utilizaban mensajes SMS para enviar contraseñas OTP y verificar la  legalidad de transacciones online. Los atacantes tomaron ventaja de las brechas de seguridad existentes en SS7 para retrasmitir mensajes SMS genuinos a números telefónicos de su propiedad y evitar que llegaran a sus destinos originales, los teléfonos de los titulares de las cuentas. Finalmente, los criminales emplearon las contraseñas OTP incluidas en los mensajes para acceder a las cuentas online y robar los fondos.  Desafortunadamente, esto no fue un incidente aislado. El sistema de envío de contraseñas OTP a través de la plataforma SMS ya ha sido comprometido en diversas ocasiones gracias a las más variadas técnicas criminales. Esto ha hecho que este tipo de autenticación haya perdido la confianza de las instituciones y los usuarios. En agosto del año pasado, el  Instituto  Nacional  de Estándares y Tecnología de EE.UU. (NIST) recomendó la discontinuación  de los mensajes SMS para la transmisión de contraseñas OTP debido a que las debilidades propias del canal permitían la consumación de ciberfraudes. Incluso antes de esto, la industria ya mostraba una clara tendencia hacia el abandono de la autenticación de usuarios basada en SMS, inclinándose por la adopción de factores más amigables y seguros. Con mejores alternativas para autenticación con doble factor, los mensajes SMS ya no deberían ser considerados como una opción segura. La falta de alternativas adecuadas ha sido la excusa preferida para continuar con el uso de la tecnología SMS, aunque éste ya no es el caso. Los factores de autenticación han avanzado mucho desde los días de las contraseñas generadas aleatoriamente y enviadas vía SMS. Los teléfonos y tabletas de la actualidad cuentan con avanzada tecnología y alto poder de cómputo, lo cual les permite tomar ventaja de mecanismos de autenticación y verificación transaccional más seguros, incluyendo notificaciones push, reconocimiento biométrico (huellas, voz y rostro) y software de seguridad integrable con la aplicación de la institución. Analicemos con más detalle algunos de estos mecanismos de autenticación de “próxima generación” y sus mejores prácticas: Autenticación push: las notificaciones push permiten establecer un canal de comunicaciones de doble vía y en tiempo real, a través del cual los usuarios pueden responder inmediatamente si desean aprobar o declinar una transacción. Los mensajes cifrados son enviados fuera de banda por medio de una aplicación. No hay números PIN o contraseñas, y las notificaciones quedan fuera del alcance de las manos criminales. Su fuerte seguridad se suma a una alta conveniencia, convirtiéndose así en una opción ideal para ofrecer una experiencia de uso sin fricción. Al incrementar las comunicaciones con sus clientes y fortalecer la confianza, la tecnología push va más allá de simplemente autenticar actividad  financiera y ayuda a las organizaciones a obtener mayores ingresos. Si bien los clientes hoy son más cautelosos en cuanto a campañas de marketing, muchas veces ignorándolas del todo, los mensajes push aseguran que la información llegue al destino deseado. Mensajes sobre nuevos productos, ofertas o tasas especiales pueden ser dirigidos a los clientes adecuados para incrementar las oportunidades de ventas. Reconocimiento biométrico: esta tecnología ofrece conveniencia sin paralelo a los usuarios finales, permitiéndoles aprovechar sus propios rasgos físicos como factor de autenticación. Los lectores de huellas digitales, rostro y voz constantemente mejoran a la par de los dispositivos móviles en los que son integrados. Como parte de un sistema de autenticación adaptable que combina confirmación de identidad con otras variables basadas en riesgo, la biometría asegura que solo los usuarios legítimos puedan acceder a las cuentas y datos sensitivos sin tener que superar una serie de elaborados obstáculos. Tokens digitales/móviles: a diferencia de las contraseñas OTP vía SMS, los códigos de un solo uso basados en software para validar inicios de sesión y actividad transaccional se encuentran protegidos por sistemas de cifrado y otros mecanismos, los cuales hacen que sean inservibles en caso de que un criminal logre interceptarlos. Estos códigos son enviados al smartphone o tableta del cliente a través de una aplicación móvil. Una vez son recibidos, la aplicación los despliega automáticamente en la pantalla del dispositivo sin necesidad de que el usuario navegue entre diferentes aplicaciones con el fin de ingresarlo. Como podemos ver, la autenticación multifactorial fuera de banda y exclusiva para smartphones (o tabletas) provee un nivel de seguridad muy superior al ya antiguo enfoque basado en mensajes SMS. Este tipo de autenticación es también más conveniente, brindando una experiencia de usuario sin fricción. Puede que la autenticación a través de SMS haya sido la mejor opción hace una década, pero la actual revolución de los smartphones ha estimulado la creación de alternativas más eficientes y seguras para mantener a salvo la banca y el comercio electrónico.  



Escribe un comentario