big data

  • Los científicos de datos y los ingenieros de datos pueden ser nuevos títulos de trabajo, pero los roles de trabajo centrales han existido por un tiempo. Tradicionalmente, cualquier persona que analice datos se llamaría "analista de datos" y cualquier persona que crea plataformas de respaldo para respaldar el análisis de datos sería un "Desarrollador de inteligencia empresarial (BI)".

    Con la aparición de Big Data, comenzaron a aparecer nuevos roles en corporaciones y centros de investigación como científicos de datos e ingenieros de datos.

    Aquí hay una descripción general de las funciones del analista de datos, desarrollador de BI, científico de datos e ingeniero de datos.

    Analista de datos

    Los analistas de datos son profesionales de datos con experiencia en su organización que pueden consultar y procesar datos, proporcionar informes, resumir y visualizar datos. Tienen un sólido conocimiento de cómo aprovechar las herramientas y los métodos existentes para resolver un problema, y ​​ayudan a las personas de toda la empresa a comprender consultas específicas con informes y cuadros específicos. Sin embargo, no se espera que traten con el análisis de grandes datos, ni se espera que tengan los antecedentes matemáticos o de investigación para desarrollar nuevos algoritmos para problemas específicos.

    Habilidades: los analistas de datos deben tener una comprensión básica de algunas habilidades básicas: estadísticas, recopilación de datos, visualización de datos, análisis exploratorio de datos,

    Herramientas: Microsoft Excel, SPSS, SPSS Modeler, SAS, SAS Miner, SQL, Microsoft Access, Tableau, SSAS .

     

    Desarrolladores de inteligencia de negocios

    Los desarrolladores de inteligencia empresarial son expertos en datos que interactúan más estrechamente con las partes interesadas internas para comprender las necesidades de informes y luego recopilar requisitos, diseñar y crear soluciones de BI e informes para la empresa. Deben diseñar, desarrollar y dar soporte a almacenes de datos, paquetes ETL, cubos, paneles de control e informes analíticos nuevos y existentes. Además, trabajan con bases de datos, tanto relacionales como multidimensionales, y deben tener excelentes habilidades de desarrollo de SQL para integrar datos de diferentes recursos. Utilizan todas estas habilidades para satisfacer las necesidades de autoservicio de toda la empresa. Normalmente no se espera que los desarrolladores de BI realicen análisis de datos.

    Habilidades: ETL, elaborar reportes, OLAP, cubos, web intelligence, business objects design,
    Herramientas: Tableau, dashboard tools, SQL, SSAS, SSIS, SPSS Modeler.

     difference between data scientist and data engineer img 2

    Ingeniero de datos

    Los Ingenieros de datos son los profesionales de datos que preparan la infraestructura de "big data" para ser analizados por los científicos de datos. Son ingenieros de software que diseñan, construyen, integran datos de diversos recursos y administran big data. Luego, escriben consultas complejas sobre eso, se aseguran de que sea fácilmente accesible, que funcione sin problemas y que su objetivo sea optimizar el rendimiento del gran ecosistema de datos de su empresa.
    También pueden ejecutar algunos ETL (Extraer, Transformar y Cargar) sobre grandes conjuntos de datos y crear grandes almacenes de datos que pueden ser utilizados para informes o análisis por científicos de datos. Más allá de eso, dado que los Ingenieros de datos se centran más en el diseño y la arquitectura, generalmente no se espera que conozcan ningún aprendizaje automático o análisis de big data.

    Habilidades: Hadoop, MapReduce, Hive, Pig, Data streaming, NoSQL, SQL, programación.
    Herramientas: DashDB, MySQL, MongoDB, Cassandra

     

    Científico de datos

    Un científico de datos es el alquimista del siglo XXI, alguien que puede convertir datos sin procesar en ideas purificadas. Los científicos de datos aplican estadísticas, aprendizaje automático y enfoques analíticos para resolver problemas empresariales críticos. Su función principal es ayudar a las organizaciones a convertir sus volúmenes de big data en información valiosa y útil.
    De hecho, la ciencia de la información no es necesariamente un campo nuevo en sí, pero puede considerarse como un nivel avanzado de análisis de datos que está impulsado y automatizado por el aprendizaje automático y la informática. En otra palabra, en comparación con los "analistas de datos", además de las habilidades analíticas de datos, se espera que los científicos de datos tengan una gran capacidad de programación, una capacidad para diseñar nuevos algoritmos, manejar grandes volúmenes de datos, con cierta experiencia en el conocimiento del dominio.

    Además, también se espera que los científicos de datos interpreten y entreguen con elocuencia los resultados de sus hallazgos, mediante técnicas de visualización, aplicaciones de ciencia de datos de construcción o narrando historias interesantes sobre las soluciones a sus problemas de datos (negocios).
    Las habilidades de resolución de problemas de un científico de datos requieren una comprensión de los métodos de análisis de datos tradicionales y nuevos para construir modelos estadísticos o descubrir patrones en los datos. Por ejemplo, crear un motor de recomendación, predecir el mercado de valores, diagnosticar a los pacientes según su similitud o encontrar patrones de transacciones fraudulentas.
    Los científicos de datos a veces pueden presentar grandes datos sin tener en cuenta un problema empresarial en particular. En este caso, se espera que el científico de datos curioso explore los datos, formule las preguntas correctas y proporcione hallazgos interesantes. Esto es complicado porque, para analizar los datos, un científico de datos sólido debe tener un conocimiento muy amplio de las diferentes técnicas en el aprendizaje automático, la minería de datos, las estadísticas y las infraestructuras de big data.

    Deben tener experiencia trabajando con diferentes conjuntos de datos de diferentes tamaños y formas, y ser capaces de ejecutar sus algoritmos en datos de gran tamaño de manera efectiva y eficiente, lo que normalmente significa mantenerse actualizado con las últimas tecnologías de vanguardia. Por esta razón, es esencial conocer los fundamentos y la programación de la informática, incluida la experiencia con lenguajes y tecnologías de bases de datos (grandes / pequeñas).

    Habilidades: Python, R, Scala, Apache Spark, Hadoop, machine learning, deep learning, estadistica.
    Herramientas: Data Science Experience, Jupyter, RStudio.

     

    Data Engineer vs Data Scientist vs Data Analyst

     

    Fuente: https://cognitiveclass.ai/blog/data-scientist-vs-data-engineer/

  • “Se van a modificar las necesidades de talento. Las tecnologías están difuminando las barreras entre las industrias”, ha dicho este viernes David Soto, general manager de IBM en España. Soto ha abierto la jornada organizada por la compañía en su sede de Madrid para buscar la sinergia de sus investigaciones tecnológicas con el talento y la formación que brindan las universidades.

    El proyecto Watson de Inteligencia Artificial (IA), la tecnología Blockchain a través de Hyperledger o el entramado de la Computación Cuántica (QC por sus siglas en inglés) de QISKIT e IBM Q, son las principales líneas de investigación de la marca, que busca una mayor participación de los centros universitarios.

    El acto, bajo el nombre de ‘Las Universidades, en el centro de la innovación y el futuro, de la mano de la tecnología‘, ha congregado a expertos de dentro y fuera de IBM y miembros de centros universitarios que ya están desarrollando experimentos en algunas de estas áreas. “Hay que buscar el conocimiento más que nunca” ha dicho Soto, quien ha incidido en la importancia que tendrá en las sociedades del futuro la capacidad de “reaprender constantemente”.

    Por eso, y ante la alianza entre sectores para lograr el “enganche emocional” con el cliente, es muy importante el apoyo de las universidades en este contexto de adaptación y reinvención, ha dicho el directivo de IBM. Para la marca prima la certeza de que en 10 años “nuestros hijos estarán en puestos de trabajo que ahora no existen”, ha avanzado. Las universidades serán “muy relevantes para potencia el futuro talento”, ha defendido Soto.

     

    Belén Fernández, durante su exposición sobre la tecnología Blockchain.

     

    La apuesta más innovadora e inexplorada es sin duda el ámbito de la Computación Cuántica (QC). Un “nuevo paradigma” en el que se intentará “aprovechar los fundamentos dela física cuántica para proporcionar nuevas posibilidades para solucionar problemas”, según lo ha introducido Diego Moreda. El IBM research ha explicado el funcionamiento del ordenador cuántico de la marca, el IBM Q (de 20 Qubits de potencia), y la herramienta IBM Q Experience.

    Este potente ordenador funciona con esos Qubits o unidades cuánticas, que resultan de la superposición cuántica de los bits. Un proceso que permite, según Moreda, “doblar la potencia de la computación” y “producir fenómenos cuánticos” para “hacer uso de ellos”. Los simuladores IBM Q Experience y el llamado QISKIT permiten lanzar programas cuánticos desde casa e incluso ordenadores cuánticos desde cualquier aplicación.

    Las aplicaciones más destacadas de esta tecnología discurrirán por dos vías: los “algoritmos matemáticos empíricos de base heurística” de Machine Learning o el Big Data; y conseguir “modelar la naturaleza a nivel cuántico (modelado de moléculas)”.

    Tecnologías como Blockchain, que IBM ha implementado como Hyperledger, un consorcio de muchas grandes empresas que participan en lenguaje Linux “donando código”. La arquitecta senior cognitiva de Blockchain de IBM, Berta Fernández, ha explicado las cualidades de esta tecnología. Según ha descrito: “La revolución que supuso Internet para la información, Blockchain lo conseguirá en el intercambio de bienes y servicios”.

     

    IMG 2835 1024x768David Soto, general manager de IBM España, durante sus palabras de inauguración del acto.

    Esta tecnología va a “rediseñar el mundo de quienes intervienen en las cadenas de valor (como la logística)”, ha resaltado Fernández. Seremos capaces de establecer transacciones o comunicaciones de bienes “punto a punto, por redes donde todos compartimos las cosas a la vez en tiempo casi real”, ha explicado. Todos vemos lo mismo y tenemos la certeza de dónde viene, según ha defendido.

    El proyecto Watson es la apuesta de IBM en materia de IA. En este campo, la compañía va más allá del mero Machine Learning o Deep Learning, y el reconocimiento del lenguaje natural por una máquina. Ignacio Alonso, Analytics IT Specialist de IBM, se ha detenido en algunas de las implementaciones de Watson, que se caracteriza según Soto por su capacidad de “aprender” en base a preguntas.

    Watson es “una plataforma que permite construir IA desde el principio hasta el final”, ha dicho Alonso. “Es una herramienta de código abierto” que consta de “una plataforma completa que integra diferentes funcionalidades de forma colaborativa”. Esta permite programar en la nube y “conectarse a gran variedad de fuentes diferentes, todo en el mismo sitio”, ha desarrollado el experto.

    Con ello se pueden crear sistemas de detección de fraude, asistentes virtuales, detección de spam, machine vision y prevención de cáncer, vehículos autónomos, reconocimiento del habla, etc., como ha expuesto Alonso.

     

    Fuente: https://www.todostartups.com/nuevas-tecnologias/actualidad-tecnologias/ibm-blockchain-ia-y-computacion-cuantica

  • Gartner predice que habrá alrededor de 20 mil millones de dispositivos conectados al IoT para 2020 y que los proveedores de productos y servicios de IoT agregarán un negocio de $ 300 mil millones en ingresos. Sin duda, el mundo conectado de Internet de las cosas está evolucionando a un gran ritmo. Ahora todo el mundo está buscando el futuro de IoT y cómo va a afectar nuestras vidas en el futuro cercano. Aquí están las 14 principales tendencias tecnológicas de IoT que definirán el futuro de IoT en 2019 y más allá.Los dispositivos inteligentes para el hogar se dispararán en popularidad

    # 1 Los dispositivos inteligentes para el hogar se dispararán en popularidad

    hogares inteligentes

     

    Incluso aquellos que descartaron la tecnología de los hogares inteligentes como juguetes poco realistas para los jóvenes perezosos encuentran cada vez más difícil resistir los encantos de los dispositivos domésticos inteligentes con IoT.

    Estos dispositivos serán muy populares en 2019 y en los próximos años, ya que se vuelven altamente intuitivos e innovadores y se extienden no solo a la comodidad de la automatización del hogar, sino también a la seguridad del hogar y la seguridad de su familia.

    Los secadores que le advierten cuando la acumulación de pelusa es demasiado alta pueden evitar un incendio. Ese es el tipo de funcionalidad de hogar inteligente que verá una gran adopción en 2019 y en los próximos años.

    Otro gran impulsor de la adopción inteligente del desarrollo de IoT es la necesidad de ahorrar energía. Los termostatos inteligentes y la iluminación inteligente ayudan a conservar la energía y reducir las facturas, lo que será otra gran razón por la cual cada vez más personas recurren a dispositivos IoT en 2019 y más allá.

     

    # 2 Edge Computing tendrá importancia sobre la computación en la nube

     

    Este será un cambio para tener cuidado. Durante mucho tiempo, los dispositivos IoT se han basado en la nube para almacenar sus datos. Sin embargo, el desarrollo y los desarrolladores y fabricantes de IoT están comenzando a darse cuenta de la utilidad de almacenar, calcular y analizar datos al límite.

    Básicamente, esto significa que, en lugar de enviar todos los datos del dispositivo IoT a la nube, los datos se transfieren primero a un dispositivo local ubicado más cerca del dispositivo IoT o en el borde de la red.

    Este dispositivo de almacenamiento local puede ordenar, filtrar y calcular los datos y luego enviar todos o solo una parte de los datos a la nube, reduciendo el tráfico a la red.

    Conocido como "computación de borde", este enfoque tiene varias ventajas. Primero, ayuda a administrar mejor la gran cantidad de datos que envía cada dispositivo. La dependencia reducida de la nube ayuda a que las aplicaciones funcionen más rápido y reduzcan la latencia.

    Al poder recopilar y procesar datos localmente, la aplicación IoT consume menos ancho de banda y funciona incluso cuando la conectividad a la nube se ve afectada. Debido a estos aspectos positivos, la informática de vanguardia verá innovación y una amplia adopción en IoT, tanto de consumo como industrial. La participación reducida en la nube facilita mejores prácticas de seguridad y reduce los costos de conectividad. 2020 verá un mayor uso de TI de última generación en IoT.

    # 3 La atención médica verá una mayor adopción de IoT

    aplicaciones medicina

     

    Una de las aplicaciones más importantes de IoT es, sin duda, en el campo de la atención médica, y el próximo año veremos cómo la atención médica realmente adopta las habilidades de IoT.

    Según Frost y Sullivan, se podría esperar que el internet de los artículos médicos crezca a una tasa de crecimiento anual compuesta de 26.2% y alcance los $ 72,000 millones para 2021.

    Los dispositivos como sensores, dispositivos portátiles, equipos médicos, monitores de salud y una variedad de otros dispositivos médicos están configurados para conectarse con IoT.

    Desde los proveedores de servicios de salud hasta la población en general, todos conocen mejor la tecnología que antes y esto está destinado a aumentar la adopción de la IoT en el mundo de la medicina para siempre.

    Aplicaciones móviles de salud y asistentes virtuales para monitorear la salud del paciente en el hogar, dispositivos portátiles e implantes inteligentes que comunican los parámetros del paciente, autos inteligentes que monitorean los signos vitales del paciente en tránsito y una serie de otros dispositivos inteligentes conectados configuran la remodelación del mundo médico.

     

    # 4. La seguridad de IoT será una prioridad mayor

     

    A medida que aumenta la adopción, cada vez más dispositivos se conectan a Internet de las cosas. La red se expande, los volúmenes de datos aumentan y hay más información en riesgo.

    El mayor uso de IoT debería ir acompañado de un mayor impulso a la seguridad de IoT. Con los datos vitales flotando en la nube, la salud del paciente y la seguridad del hogar están en riesgo y el desarrollo de aplicaciones móviles basadas en IoT tendrá que ser más seguro que nunca.

    A partir de ahora, no todos los dispositivos IoT vienen equipados con el tipo de características de seguridad con las que están equipadas las computadoras portátiles y las computadoras. En el próximo año, eso tendrá que cambiar.

    La autenticación de máquina a máquina se superpondrá, los inicios de sesión biométricos se convertirán en la norma, y se utilizarán técnicas de inteligencia artificial, aprendizaje automático y big data para identificar y frustrar las infracciones de datos.

     

    # 5. AI y Big Data

    inteligencia artificial y big data

     

    Con miles de millones de dispositivos de consumo e industriales conectados a IoT y transmisión de datos, la cantidad de datos que debe procesarse y analizarse crecerá exponencialmente.

    La idea no es solo recopilar datos, sino también extraer información procesable de estos datos y que se necesitarán algunas técnicas de ingeniería artificial y big data para procesar toda esa información.

    Una convergencia de IA, IoT y Big Data conducirá a una ola de aplicaciones y avances de nueva generación. De hecho, puede ser difícil ver cualquiera de estos de manera aislada.

     

    # 6. Blockchain para la seguridad de IoT

    blockchain para la seguridad de iot

     

    Muchas instituciones financieras y gubernamentales, empresarios, consumidores e industriales estarán descentralizados, serán autónomos y serán bastante inteligentes. Se ve a algunas de las nuevas empresas construyendo su territorio enredado en IOTA (IOTA es un libro mayor distribuido especialmente diseñado para registrar y ejecutar transacciones entre dispositivos en el ecosistema IoT) para desarrollar módulos y otros componentes para empresas sin el costo de SaaS & Cloud .

    Debe prepararse para ver los modelos de computadora centralizados y monolíticos que están separados en los trabajos y microservicios que se distribuirán a las máquinas y dispositivos descentralizados. Algún día, IoT penetrará en las disciplinas de salud, gobierno, transacciones, finanzas y otras que la gente en estos días no puede pensar. Este tipo de tendencia tecnológica de IoT creará grandes diferencias efectivas.

     

    # 7. Mejor análisis de datos

    analisis de datos

     

    Los próximos años nos sorprenderán con la mayor tendencia que ocurrirá entre el IoT y el mundo conectado. Ahora, cómo el mundo y el IoT se combinan con la IA para convertirse en un asistente de toma de decisiones para todas las personas y empresas, y eso es todo lo que esperamos.

    AI es un sistema de aprendizaje automático que puede identificar fácilmente las tendencias. IoT Trends traerá un mejor análisis de datos y hará que sea más fácil protegerlos. Además de esto, recopila información de los datos considerables para tomar mejores decisiones para nuestras vidas. Parece que la integración de IoT es menos reflexiva, inteligente y también es de autoaprendizaje.

     

    # 8. Ciudades inteligentes para convertirse en la corriente principal

     

    En el pasado, hemos visto que los estados implementaban más tecnologías y sensores para aprovechar las herramientas de recopilación de datos accesibles. Pronto, veremos las Tendencias de IoT donde las ciudades con una visión de futuro invertirán en intercambios pioneros de datos que permitirán el acceso y la fusión de datos entre organizaciones públicas y privadas junto con los ciudadanos.

    Tendremos la oportunidad de ver pronto la conversión del pensamiento de varias ciudades más inteligentes. La integración de IoT con ciudades receptivas desbloqueará el desarrollo sostenible, disminuirá la congestión del tráfico y mejorará la seguridad.

     

    # 9. Personalización de la experiencia minorista

     

    IoT hace que la gestión de la cadena de suministro minorista sea aún más eficiente hoy en día. Con la ayuda de sensores y otras técnicas de baliza inteligente, adaptar la experiencia de compra se ha vuelto bastante más fácil y las personas pueden hacerlo con mayor precisión.

    Según los nuevos cambios, IoT Trends de los años siguientes personalizará su presencia comercial. Puede imaginar recibir una notificación de descuento en un producto generalmente comprado en su tienda favorita, pero ¿también puede imaginar un mapa interno de su tienda favorita que lo lleve al producto exacto que desea?

    Esta última tendencia tecnológica de IoT asegurará una mejor integración de la experiencia minorista personalizada que, en última instancia, puede traer una nueva era de compras.

     

    # 10. Mantenimiento predictivo impulsado por IoT

     

    En 2009 y más allá, el hogar informará a los propietarios sobre fugas de plomería, fallas de electrodomésticos, problemas eléctricos para que los propietarios puedan evitar el desastre del mantenimiento del hogar. Más de las características de los sensores en fábricas, aviones y automóviles que se pueden lograr hoy pronto ingresarán a su hogar con la ayuda de todas estas Tendencias de IoT.

    En respuesta a estas habilidades predictivas de IoT, veremos las ofertas de atención domiciliaria como un servicio de contratista. No importa si estás en casa o no, tomarán medidas de inmediato cuando se perciba un problema.

    En la actualidad, varias compañías de seguros para el hogar ya conocen la naturaleza cambiante de los sensores inteligentes y otros dispositivos conectados que afectan en gran medida las tendencias de Internet de las cosas. Los sensores que se encuentran en los automóviles, como las aseguradoras nacionales, serán capaces de reducir el riesgo y otros pagos durante el suministro de tarifas más bajas a los consumidores que instalarán sistemas de monitoreo proactivo para evitar daños.

     

    # 11. El software como servicio se convierte en la norma

     

    Si hablamos de las tendencias tecnológicas de IoT, el software como servicio se considera uno de los temas candentes para los mercados estimados. Con la ayuda del bajo costo de entrada, SaaS está llegando rápidamente a la lista de los mejores por ser también la firma favorita en el sector de los juegos de TI, y pronto tendremos la oportunidad de ver una defensa extensa de la compañía. El software como servicio entre todas estas tendencias tecnológicas de IoT mejorará la vida de las personas mejor que nunca.

     

    # 12. Creación de un marco unificado para la integración

     

    La falta de un marco de IoT unificado es algo que Internet de las cosas ha enfrentado como un desafío al cooperar con las industrias. Varias empresas no tienen una plataforma central compartida. Todas las tendencias de Internet de las cosas que mencioné antes incluyen un marco unificado, ya que esta es la única forma de mantener a las industrias seguras.

    Blockchain ayudará a acelerar el proceso de adopción con la ayuda de permitir la mejora y el desarrollo de aplicaciones móviles o web. Estas son las aplicaciones que tienen umbrales de alto rendimiento, y este proceso también ayudará a mantener el proceso de uso intensivo de datos que generalmente se requiere.

     

    # 13. Gestión de energía y recursos

     

    energia y manejo de recursos

    La gestión energética depende en gran medida de la adquisición de una mejor comprensión del consumo. La mayoría de las veces, los productos que pueden caber en los paneles eléctricos llegan al mercado, y estos pueden monitorear muy bien el consumo de energía del hogar. Todas estas tendencias tecnológicas de IoT pueden integrarse fácilmente en la gestión de recursos, lo que hará que la vida de las personas sea más fácil y cómoda.

    También se pueden agregar notificaciones automáticas para enviar notificaciones con teléfonos inteligentes cuando se excede el umbral de energía. También se pueden agregar otras características como el control de rociadores, la gestión de la temperatura interior, etc.

     

    # 14. Mayor adopción del consumidor

     

    En los próximos 10 años más o menos, verá un gran cambio en Internet de las cosas cuando ocurra el cambio de IoT basado en el consumidor, así como las fallas de mercado de Lily Robotics. El crecimiento de la financiación de Internet de las cosas basada en el consumidor disminuirá, y el futuro será el año para la plataforma e infraestructura de IoT industrial. Estas tendencias de Internet de las cosas requerirán tiempo para evolucionar.

    Empresas como BetterView, Veniam y Swift Navigation se basan en Industrial-IoT verán la construcción de la arquitectura de Internet de las cosas, resolverán las dificultades en seguros, agricultura, transporte o telecomunicaciones, y verán una vívida reducción en los gastos de capital.

     

    En conclusión:

     

    Estas son algunas de las tendencias que dominarán el ecosistema de desarrollo de aplicaciones IoT en el nuevo año. Tanto el IoT de consumo como el industrial verán grandes avances y una serie de dispositivos conectados, pero los caprichos de algunas personas saben sobre la tecnología se volverán comunes.

    Por supuesto, surgirán nuevas tecnologías que harán que IoT sea más intuitivo y fácil de usar, pero en gran medida, los fabricantes tendrán que trabajar más para proteger sus dispositivos conectados, ya que el riesgo para los datos también aumentará. En medio de todas estas tendencias y predicciones, el futuro es definitivamente prometedor y ciertamente vale la pena esperar.

    Si tiene algún requisito de desarrollo de aplicaciones IoT, no dude en contactarnos. Somos una empresa líder de desarrollo de aplicaciones en Dubai que ofrece una aplicación móvil basada en IoT repleta de funciones según sus elecciones.

     

    Fuente: https://towardsdatascience.com/top-14-iot-mobile-app-development-trends-to-expect-in-2020-7fd7718155dc

  • ESTRATEGIA:

    1. Soñando que la analítica es una varita mágica plug & play que traerá un retorno de la inversión a muy corto plazo. Los modelos básicos de Excel bien ejecutados pueden haber traído ganancias rápidas en la década de 2000, pero los análisis avanzados requieren algo de tiempo. 

    La analítica nunca es plug & play porque la conexión de datos en modelos es extremadamente larga, porque los aprendizajes no son transferibles entre empresas o mercados y porque requieren un alto OPEX en personas y un alto CAPEX en sistemas.

    2. Resolver problemas que no merecen ser resueltos, lo que resulta en una pérdida de tiempo y recursos. El análisis no se trata de soluciones que buscan problemas, sino de problemas que buscan soluciones. 

    Preguntas como "¿Qué podemos hacer con la cadena de bloqueo? "Cómo puedo resolver mi problema de marketing" es una pregunta que tiene sentido. El peor error del Jefe de Análisis de Datos es no tener una visión extremadamente clara de los principales retos y oportunidades a los que se enfrenta cada área funcional.


    3. Confiar únicamente en proveedores o consultores para el análisis, especialmente en la creación de modelos. La autopsia de cómo las empresas fallan en el desarrollo de capacidades con consultores es la siguiente: el cliente contrata a un consultor para que entregue un proyecto y, al mismo tiempo, desarrolle capacidades internas. 

    El cliente tiene expectativas demasiado poco realistas sobre el impacto del proyecto y los consultores nunca dicen "No" y sobrevenden el proyecto. El impacto no se materializa y un día el cliente le dice al consultor: "Si no obtienes algún impacto en el próximo mes, detendré tu contrato". Ese día, el desarrollo de capacidades muere oficialmente, si es que hubiera existido. RIP. Unos cuantos millones de dólares en el cubo de la basura. De todos modos, la analítica es el cerebro de la empresa. Trabajar con proveedores y consultores puede funcionar, pero hay que pensar bien la gobernanza.

    4. No elaborar una lista completa de prioridades. Dado que sólo se puede contar con cinco dedos en una mano, por lo tanto, la gerencia debe escoger un máximo de cinco métricas en lugar de hacer que todo parezca importante.

    5. Decir sí a peticiones aleatorias o accesorias, como proyectos de visualizaciones y reportes glamourosos que a menudo resultan en el síndrome de análisis-parálisis.


    6. Asumiendo que no pagar por datos externos o subir a la nube es la solución para la privacidad y seguridad de los datos. Si bien existen algunas restricciones regulatorias en algunos sectores y países, y a veces incluso límites éticos, la monetización externa y la nube realizada correctamente no implican necesariamente riesgos de seguridad.


    GENTE:

    7. Organizar el análisis bajo áreas que no impulsan el negocio a diario, como la TI o la estrategia. La analítica sólo es poderosa si se combina organizativamente con las operaciones diarias. Debe ser organizado por negocio, no IT o Estrategia

    8. Permitir que múltiples equipos de análisis florezcan con silos organizacionales entre ellos. Analytics necesita mantener una visión integrada del negocio.

    9. Atraer el talento sólo a través de la compensación base. En cambio, es necesario construir un sentido de propósito, crear una poderosa marca de empleador y desarrollar el talento interno.

    10. Contratar a un grupo de doctores que se esfuerzan por desarrollar modelos altamente complejos en lugar de soluciones rudimentarias direccionalmente correctas, por lo que no logran demostrar una visión procesable. Por lo tanto, contrate a estudiantes rápidos altamente entrenables (incluso si tienen un doctorado) .

    11. Contratación de un Director Técnico de Análisis de Datos no técnico o viceversa. Necesita ser lo suficientemente técnico como para entrenar a su equipo y lo suficientemente orientado al negocio como para entender los problemas del negocio.

    12. No traer expertos en dominios y consultores de negocio internos a los equipos de análisis para cerrar la brecha entre los líderes de negocio y los equipos de análisis para asegurar un viaje de punta a punta de idea a impacto.

    13. Descuidar la creación de una cultura basada en datos a través del coaching activo en toda la organización, desde los agentes de ventas hasta el CEO, especialmente los agentes de ventas y el CEO.

    14. No ser lo suficientemente objetivo y permanecer sesgado hacia el statu quo o el pensamiento de liderazgo. Los equipos de análisis profundamente integrados en las funciones de negocio o BUs son más propensos a tener estos problemas que los centralizados. Es por eso que algunas organizaciones crean equipos de control de calidad.



    EJECUCIÓN:

    15. No integrar la analítica en los modelos operativos y en los flujos de trabajo diarios. El uso de la analítica como parte de sus actividades diarias ayuda a los usuarios a tomar decisiones mejor informadas, a incorporar la retroalimentación de los consumidores en las soluciones y a iterar rápidamente nuevos productos; en cambio, muchos siguen confiando en los instintos.

    16. No se trata de juntar por juntar a los científicos de datos con los equipos de negocios. De lo contrario, no se hablarán entre ellos.

    17. Gestión de proyectos analíticos en cascada. Los parámetros de un modelo no se pueden conocer de antemano. Se determinan a través de un proceso iterativo que se parece más a un arte que a una ciencia. Por lo tanto, los proyectos analíticos deben ser iterativos siguiendo, por ejemplo, el Agile Framework.

    18. No ser capaz de escalar los pilotos de análisis. Las compañías a menudo terminan matando los pilotos tan pronto como necesitan reasignar fondos para otras iniciativas a corto plazo.

    19. Descuidar la gobernanza de los datos como un elemento fundamental. El gobierno de datos se refiere a la organización, los procesos y los sistemas que una organización necesita para gestionar sus datos de forma adecuada y coherente como un activo, desde la gestión de la calidad de los datos hasta el control de acceso o la definición de la arquitectura de los datos de forma estandarizada.




    TECNOLOGÍA:

    20. Intentar crear modelos de ciencia de datos sin refinar su infraestructura de ingeniería de datos: repositorios limpios, motores eficientes y procesos optimizados de transferencia de carga de extracción. La ingeniería de datos sin casos de uso reales para modelar también está mal. Tanto la modelización como la ingeniería deben ir en paralelo o de forma iterativa.

    21. No utilizar ninguna de las siguientes tecnologías básicas: Hadoop, Spark, R, Python, una herramienta de visualización avanzada de su elección, y un sistema de informes granular de autoservicio abierto para toda la organización.

    22. Disponer de silos tecnológicos entre los repositorios de datos, lo que dificulta la integración de diferentes tipos de datos en un modelo. El poder de la analítica aumenta exponencialmente con la diversidad de los datos.

    23. No automatizar la analítica a través de la I.A., que puede ser un asistente extremadamente inteligente para los científicos de datos. Las automatizaciones de I.A. ayudan a los científicos a limpiar los datos, a comprobar su exactitud, a desplegar modelos, a detectar características de predicción relevantes y la obsolescencia de los modelos, o incluso a generar cientos o miles de variaciones de modelos. 
    Con todo, la estrategia analítica del negocio tiene que ser un subconjunto de toda la estrategia de I.A. ya que los conjuntos de datos necesitan alimentar los sistemas de I.A.


    FINANZAS:

    24. No asignar suficiente presupuesto para las plataformas de análisis, pero aún así mantener las expectativas del sueño de Shangri-La. Y lo contrario es también un error, al asignar más que suficiente dinero que no tiene correlación directa con los resultados de las empresas.

    25. No medir el ROI de las iniciativas de análisis. Sabemos que el ROI es a medio plazo, pero eso no significa que no lo mida.



    Visto en Datasciencentral

  • Para que las empresas conviertan sus ideas en acciones, deben contar sus historias de datos de manera efectiva a múltiples audiencias.

    En la comunicación empresarial, transmitir claramente un mensaje a la audiencia de uno, convirtiendo los datos en una historia que resuene con ellos, a menudo es lo que hace posible afectar el cambio positivo.

    Ahí es donde entra la visualización de datos.

    ¿Qué es la visualización de datos?

    La visualización de datos es una forma de transmitir a una audiencia los mensajes clave que se encuentran dentro de la inteligencia de negocios de una organización. Aunque la representación gráfica de los datos comerciales es un elemento clave, una buena visualización de datos es más que solo cuadros y gráficos; También debe crear una narrativa que cuente la historia de la organización y lleve a la audiencia a las conclusiones correctas.

    bigstock Cloud Computing Big Data Anal 214385995

    La visualización de datos es cada vez más importante para las empresas, ya que se dan cuenta de que simplemente obtener información de sus sofisticados sistemas de inteligencia empresarial no es suficiente. También deben actuar sobre esas ideas, y eso significa persuadir a los tomadores de decisiones.

    La visualización de datos puede atraer la atención a nuevas oportunidades, ayudar a resolver problemas desafiantes e introducir eficiencias potenciales en el proceso , todo impulsado por ideas que son importantes para compartir con los miembros del equipo, clientes o asistentes a la conferencia. Hacerlo bien requiere una combinación de habilidades: la capacidad de cargar en los datos y analizarlos y sintetizarlos, y los conocimientos para presentarlos de una manera convincente.

    ¿Cómo comienzan las empresas con la visualización de datos?

    Una presentación visual convincente comienza con la comprensión de con quién se está hablando. Por ejemplo, los pares de la gerencia media pueden querer detalles de inteligencia empresarial representados gráficamente, mientras que los ejecutivos de C-suite pueden preferir diapositivas o paneles que ilustran una vista de alto nivel de los resultados.

    "¿Para quién está diseñando esto?", Pregunta Ellie Fields, vicepresidenta de desarrollo de productos para el proveedor de visualización de datos Tableau Software . "¿Es un vendedor ocupado con 15 segundos de sobra para los indicadores clave de rendimiento, o un equipo que revisa los paneles trimestrales durante varias horas?". Las visualizaciones deben tener un flujo sensible y presentar lógicamente diferentes piezas de información , dice Fields.

    A quien sea que se presente, hay una regla clara: no visualice lo que no importa. "Lo más importante es no poner en imágenes algo de lo que no quieras hacer un comentario", dice Stephanie Evergreen , fundadora de la compañía de informes y visualización de datos Evergreen Data, que ofrece talleres públicos y privados sobre el tema. El público no quiere perder su tiempo y atención en información irrelevante, y los presentadores no deberían perder el tiempo creando diapositivas con datos que a nadie le importan, dice.

    Eso no significa que las diapositivas "densas" no tengan cabida en la práctica de inteligencia empresarial. En un escenario en vivo, un presentador debería poder transmitir sus puntos principales en cinco a 10 breves diapositivas visuales que el público pueda ver fácilmente, dice Nancy Duarte, directora de Duarte, una compañía de diseño y capacitación de presentaciones. Pero es aceptable circular diapositivas con gráficos más detallados de antemano, para que el público tenga más antecedentes y una comprensión más profunda de la historia de datos que entra en la presentación.

    "Entonces puede usar el tiempo de la reunión para crear consenso en lugar de un foro para entregar contenido", dice Duarte. "Puedes leer un documento mucho más rápido que pasar una larga presentación".

    ¿Cuáles son los tipos de visualización de datos?

    La visualización de datos no es solo para científicos de datos o expertos en TI: hoy todos son analistas y se espera que creen presentaciones con imágenes sólidas que resalten sus conocimientos relacionados con sus roles. Evergreen ha visto a un número creciente de compañías agregar capacitación de visualización de datos a sus presupuestos.

    616500 free data visualization tools

    A medida que más personas tengan la visualización de datos como un requisito de trabajo, necesitarán saber qué opciones de gráficos son las mejores para transmitir su mensaje. La respuesta es que depende de lo que quiera mostrar en una instancia particular.

    " Hay muchas formas de visualizar tendencias y valores atípicos, dependiendo de la cantidad de datos que tenga y de las preguntas que desee responder", dice Fields. Los gráficos de barras son mejores para comparar una sola medida en todas las categorías, mientras que los histogramas y las gráficas de caja ilustran y comparan grupos de datos, explica.

    Hay más: los gráficos de viñetas, los gráficos en cascada, las líneas de referencia, las bandas y las distribuciones ayudan a medir el progreso frente a los objetivos. Los gráficos de series de tiempo ayudan a visualizar el cambio de puntos de datos a lo largo del tiempo. Los gráficos de diagrama de dispersión ayudan a mostrar la relación entre dos variables. Y visualizar datos con mapas puede ayudar a responder preguntas específicas de la ubicación o ayudar a la exploración geográfica.

    ¿Qué son las herramientas de visualización de datos?

    La mayoría de las soluciones de inteligencia empresarial tienen herramientas integradas para ayudar a los usuarios a presentar los datos de manera efectiva. Además de Tableau, Microsoft Power BI , Oracle Data Visualization y Splunk Dynamic Data se encuentran entre los proveedores líderes en el espacio de visualización de datos.

    best data visualization tools

    Las imágenes se pueden mejorar con cuadros de color o texto para llamar la atención sobre un punto de datos . Duarte ofrece un kit de anotaciones gratuito para superponer anotaciones visuales en un gráfico. "Es un nivel completamente diferente de explicación", dice ella.

    Una presentación puede tener gráficos atractivos que se calculan para atraer a una audiencia en particular, pero esa audiencia puede perder fácilmente el interés si el presentador adopta el enfoque de recorrer todo el proceso de análisis en lugar de dedicarse a los negocios.

    "Poner las cosas importantes primero", dice Satish Nargundkar, profesor de ciencias gerenciales en la Universidad Estatal de Georgia. "Una presentación no se trata de lo duro que trabajó". Omita el fondo, dice, y vuelva a presentar el tema a su audiencia, luego vuelva a la representación visual.

    Cómo preparar datos para análisis

    El análisis de datos que subyace a las visualizaciones debe basarse en una base sólida de datos limpios , dice Subhashish Samaddar, profesor de análisis de datos e innovación en la Universidad Estatal de Georgia. "Todos los datos tienen problemas - falta de información o sesgo, por ejemplo - y las personas con poca experiencia pueden ser engañadas".

    1 12

    El presentador podría estar utilizando datos recopilados, recuperados y organizados por otros analistas de datos, por lo que es una buena idea que esa persona haga preguntas sobre el origen de los datos, cómo se recopilaron y otras variables antes de realizar el análisis para alimentar las visualizaciones, aconseja.

    Aún así, si espera datos perfectos antes de analizarlos y graficarlos, no logrará nada.

    "Acepte el estado del bien, pero sea muy explícito sobre cuánta confianza tiene en él", dice Evergreen, para que la audiencia pueda tomar eso en consideración para la toma de decisiones.

    Una buena plataforma de visualización de datos puede permitir una cultura de análisis de autoservicio al proporcionar datos gobernados y un conjunto de herramientas a cualquier persona en el negocio , dice Fields. "La pieza crítica es un modelo de gobernanza que admite análisis de autoservicio a escala, que respalda a los usuarios al tiempo que garantiza que las personas adecuadas tengan acceso a los datos correctos".

     

    Fuente: https://biztechmagazine.com/article/2019/10/why-data-visualization-central-element-effective-analytics-perfcon