big data

  • IBM apuesta por Blockchain, IA y Computación Cuántica ante los problemas del futuro

    “Se van a modificar las necesidades de talento. Las tecnologías están difuminando las barreras entre las industrias”, ha dicho este viernes David Soto, general manager de IBM en España. Soto ha abierto la jornada organizada por la compañía en su sede de Madrid para buscar la sinergia de sus investigaciones tecnológicas con el talento y la formación que brindan las universidades.

    El proyecto Watson de Inteligencia Artificial (IA), la tecnología Blockchain a través de Hyperledger o el entramado de la Computación Cuántica (QC por sus siglas en inglés) de QISKIT e IBM Q, son las principales líneas de investigación de la marca, que busca una mayor participación de los centros universitarios.

    El acto, bajo el nombre de ‘Las Universidades, en el centro de la innovación y el futuro, de la mano de la tecnología‘, ha congregado a expertos de dentro y fuera de IBM y miembros de centros universitarios que ya están desarrollando experimentos en algunas de estas áreas. “Hay que buscar el conocimiento más que nunca” ha dicho Soto, quien ha incidido en la importancia que tendrá en las sociedades del futuro la capacidad de “reaprender constantemente”.

    Por eso, y ante la alianza entre sectores para lograr el “enganche emocional” con el cliente, es muy importante el apoyo de las universidades en este contexto de adaptación y reinvención, ha dicho el directivo de IBM. Para la marca prima la certeza de que en 10 años “nuestros hijos estarán en puestos de trabajo que ahora no existen”, ha avanzado. Las universidades serán “muy relevantes para potencia el futuro talento”, ha defendido Soto.

     

    Belén Fernández, durante su exposición sobre la tecnología Blockchain.

     

    La apuesta más innovadora e inexplorada es sin duda el ámbito de la Computación Cuántica (QC). Un “nuevo paradigma” en el que se intentará “aprovechar los fundamentos dela física cuántica para proporcionar nuevas posibilidades para solucionar problemas”, según lo ha introducido Diego Moreda. El IBM research ha explicado el funcionamiento del ordenador cuántico de la marca, el IBM Q (de 20 Qubits de potencia), y la herramienta IBM Q Experience.

    Este potente ordenador funciona con esos Qubits o unidades cuánticas, que resultan de la superposición cuántica de los bits. Un proceso que permite, según Moreda, “doblar la potencia de la computación” y “producir fenómenos cuánticos” para “hacer uso de ellos”. Los simuladores IBM Q Experience y el llamado QISKIT permiten lanzar programas cuánticos desde casa e incluso ordenadores cuánticos desde cualquier aplicación.

    Las aplicaciones más destacadas de esta tecnología discurrirán por dos vías: los “algoritmos matemáticos empíricos de base heurística” de Machine Learning o el Big Data; y conseguir “modelar la naturaleza a nivel cuántico (modelado de moléculas)”.

    Tecnologías como Blockchain, que IBM ha implementado como Hyperledger, un consorcio de muchas grandes empresas que participan en lenguaje Linux “donando código”. La arquitecta senior cognitiva de Blockchain de IBM, Berta Fernández, ha explicado las cualidades de esta tecnología. Según ha descrito: “La revolución que supuso Internet para la información, Blockchain lo conseguirá en el intercambio de bienes y servicios”.

     

    IMG 2835 1024x768 David Soto, general manager de IBM España, durante sus palabras de inauguración del acto.

    Esta tecnología va a “rediseñar el mundo de quienes intervienen en las cadenas de valor (como la logística)”, ha resaltado Fernández. Seremos capaces de establecer transacciones o comunicaciones de bienes “punto a punto, por redes donde todos compartimos las cosas a la vez en tiempo casi real”, ha explicado. Todos vemos lo mismo y tenemos la certeza de dónde viene, según ha defendido.

    El proyecto Watson es la apuesta de IBM en materia de IA. En este campo, la compañía va más allá del mero Machine Learning o Deep Learning, y el reconocimiento del lenguaje natural por una máquina. Ignacio Alonso, Analytics IT Specialist de IBM, se ha detenido en algunas de las implementaciones de Watson, que se caracteriza según Soto por su capacidad de “aprender” en base a preguntas.

    Watson es “una plataforma que permite construir IA desde el principio hasta el final”, ha dicho Alonso. “Es una herramienta de código abierto” que consta de “una plataforma completa que integra diferentes funcionalidades de forma colaborativa”. Esta permite programar en la nube y “conectarse a gran variedad de fuentes diferentes, todo en el mismo sitio”, ha desarrollado el experto.

    Con ello se pueden crear sistemas de detección de fraude, asistentes virtuales, detección de spam, machine vision y prevención de cáncer, vehículos autónomos, reconocimiento del habla, etc., como ha expuesto Alonso.

     

    Fuente: https://www.todostartups.com/nuevas-tecnologias/actualidad-tecnologias/ibm-blockchain-ia-y-computacion-cuantica

  • Los 25 errores que cometen las empresas al usar Analytics (Business Intelligence, Machine Learning y Big Data)

    ESTRATEGIA:

    1. Soñando que la analítica es una varita mágica plug & play que traerá un retorno de la inversión a muy corto plazo. Los modelos básicos de Excel bien ejecutados pueden haber traído ganancias rápidas en la década de 2000, pero los análisis avanzados requieren algo de tiempo. 

    La analítica nunca es plug & play porque la conexión de datos en modelos es extremadamente larga, porque los aprendizajes no son transferibles entre empresas o mercados y porque requieren un alto OPEX en personas y un alto CAPEX en sistemas.

    2. Resolver problemas que no merecen ser resueltos, lo que resulta en una pérdida de tiempo y recursos. El análisis no se trata de soluciones que buscan problemas, sino de problemas que buscan soluciones. 

    Preguntas como "¿Qué podemos hacer con la cadena de bloqueo? "Cómo puedo resolver mi problema de marketing" es una pregunta que tiene sentido. El peor error del Jefe de Análisis de Datos es no tener una visión extremadamente clara de los principales retos y oportunidades a los que se enfrenta cada área funcional.


    3. Confiar únicamente en proveedores o consultores para el análisis, especialmente en la creación de modelos. La autopsia de cómo las empresas fallan en el desarrollo de capacidades con consultores es la siguiente: el cliente contrata a un consultor para que entregue un proyecto y, al mismo tiempo, desarrolle capacidades internas. 

    El cliente tiene expectativas demasiado poco realistas sobre el impacto del proyecto y los consultores nunca dicen "No" y sobrevenden el proyecto. El impacto no se materializa y un día el cliente le dice al consultor: "Si no obtienes algún impacto en el próximo mes, detendré tu contrato". Ese día, el desarrollo de capacidades muere oficialmente, si es que hubiera existido. RIP. Unos cuantos millones de dólares en el cubo de la basura. De todos modos, la analítica es el cerebro de la empresa. Trabajar con proveedores y consultores puede funcionar, pero hay que pensar bien la gobernanza.

    4. No elaborar una lista completa de prioridades. Dado que sólo se puede contar con cinco dedos en una mano, por lo tanto, la gerencia debe escoger un máximo de cinco métricas en lugar de hacer que todo parezca importante.

    5. Decir sí a peticiones aleatorias o accesorias, como proyectos de visualizaciones y reportes glamourosos que a menudo resultan en el síndrome de análisis-parálisis.


    6. Asumiendo que no pagar por datos externos o subir a la nube es la solución para la privacidad y seguridad de los datos. Si bien existen algunas restricciones regulatorias en algunos sectores y países, y a veces incluso límites éticos, la monetización externa y la nube realizada correctamente no implican necesariamente riesgos de seguridad.


    GENTE:

    7. Organizar el análisis bajo áreas que no impulsan el negocio a diario, como la TI o la estrategia. La analítica sólo es poderosa si se combina organizativamente con las operaciones diarias. Debe ser organizado por negocio, no IT o Estrategia

    8. Permitir que múltiples equipos de análisis florezcan con silos organizacionales entre ellos. Analytics necesita mantener una visión integrada del negocio.

    9. Atraer el talento sólo a través de la compensación base. En cambio, es necesario construir un sentido de propósito, crear una poderosa marca de empleador y desarrollar el talento interno.

    10. Contratar a un grupo de doctores que se esfuerzan por desarrollar modelos altamente complejos en lugar de soluciones rudimentarias direccionalmente correctas, por lo que no logran demostrar una visión procesable. Por lo tanto, contrate a estudiantes rápidos altamente entrenables (incluso si tienen un doctorado) .

    11. Contratación de un Director Técnico de Análisis de Datos no técnico o viceversa. Necesita ser lo suficientemente técnico como para entrenar a su equipo y lo suficientemente orientado al negocio como para entender los problemas del negocio.

    12. No traer expertos en dominios y consultores de negocio internos a los equipos de análisis para cerrar la brecha entre los líderes de negocio y los equipos de análisis para asegurar un viaje de punta a punta de idea a impacto.

    13. Descuidar la creación de una cultura basada en datos a través del coaching activo en toda la organización, desde los agentes de ventas hasta el CEO, especialmente los agentes de ventas y el CEO.

    14. No ser lo suficientemente objetivo y permanecer sesgado hacia el statu quo o el pensamiento de liderazgo. Los equipos de análisis profundamente integrados en las funciones de negocio o BUs son más propensos a tener estos problemas que los centralizados. Es por eso que algunas organizaciones crean equipos de control de calidad.



    EJECUCIÓN:

    15. No integrar la analítica en los modelos operativos y en los flujos de trabajo diarios. El uso de la analítica como parte de sus actividades diarias ayuda a los usuarios a tomar decisiones mejor informadas, a incorporar la retroalimentación de los consumidores en las soluciones y a iterar rápidamente nuevos productos; en cambio, muchos siguen confiando en los instintos.

    16. No se trata de juntar por juntar a los científicos de datos con los equipos de negocios. De lo contrario, no se hablarán entre ellos.

    17. Gestión de proyectos analíticos en cascada. Los parámetros de un modelo no se pueden conocer de antemano. Se determinan a través de un proceso iterativo que se parece más a un arte que a una ciencia. Por lo tanto, los proyectos analíticos deben ser iterativos siguiendo, por ejemplo, el Agile Framework.

    18. No ser capaz de escalar los pilotos de análisis. Las compañías a menudo terminan matando los pilotos tan pronto como necesitan reasignar fondos para otras iniciativas a corto plazo.

    19. Descuidar la gobernanza de los datos como un elemento fundamental. El gobierno de datos se refiere a la organización, los procesos y los sistemas que una organización necesita para gestionar sus datos de forma adecuada y coherente como un activo, desde la gestión de la calidad de los datos hasta el control de acceso o la definición de la arquitectura de los datos de forma estandarizada.




    TECNOLOGÍA:

    20. Intentar crear modelos de ciencia de datos sin refinar su infraestructura de ingeniería de datos: repositorios limpios, motores eficientes y procesos optimizados de transferencia de carga de extracción. La ingeniería de datos sin casos de uso reales para modelar también está mal. Tanto la modelización como la ingeniería deben ir en paralelo o de forma iterativa.

    21. No utilizar ninguna de las siguientes tecnologías básicas: Hadoop, Spark, R, Python, una herramienta de visualización avanzada de su elección, y un sistema de informes granular de autoservicio abierto para toda la organización.

    22. Disponer de silos tecnológicos entre los repositorios de datos, lo que dificulta la integración de diferentes tipos de datos en un modelo. El poder de la analítica aumenta exponencialmente con la diversidad de los datos.

    23. No automatizar la analítica a través de la I.A., que puede ser un asistente extremadamente inteligente para los científicos de datos. Las automatizaciones de I.A. ayudan a los científicos a limpiar los datos, a comprobar su exactitud, a desplegar modelos, a detectar características de predicción relevantes y la obsolescencia de los modelos, o incluso a generar cientos o miles de variaciones de modelos. 
    Con todo, la estrategia analítica del negocio tiene que ser un subconjunto de toda la estrategia de I.A. ya que los conjuntos de datos necesitan alimentar los sistemas de I.A.


    FINANZAS:

    24. No asignar suficiente presupuesto para las plataformas de análisis, pero aún así mantener las expectativas del sueño de Shangri-La. Y lo contrario es también un error, al asignar más que suficiente dinero que no tiene correlación directa con los resultados de las empresas.

    25. No medir el ROI de las iniciativas de análisis. Sabemos que el ROI es a medio plazo, pero eso no significa que no lo mida.



    Visto en Datasciencentral