A veces resultan complejos y por ello hemos creado Dicciodata, el diccionario sobre del mundo de los datos.
A

Es un conjunto prescrito de instrucciones o reglas que permite solucionar un problema mediante la realización de una serie de pasos sucesivos.
Su funcionamiento se basa en seguir una secuencia preestablecida paso a paso, donde cada uno se puede describir sin ambigüedad y puede gestionar o tratar diferentes volúmenes de datos.

Es una tipología de análisis que tiene por objetivo determinar o valorar sentimientos o actitudes hacia una compañía, producto, servicio, persona o evento.
Involucra la captura y seguimiento de emociones o sentimientos expresados por los consumidores en distintos tipos de interacciones o documentos, incluyendo redes sociales, contactos con atención al cliente, cuestionarios de satisfacción etc.
Es una tarea de clasificación masiva automática que típicamente incluye actividades como procesamiento de lenguaje natural, minería de texto y lingüística computacional.
B

Es una colección de información que ayuda a la toma de decisiones de las compañías gracias a su capacidad de extraer, transformar y cargar los datos almacenados para obtener reportes relacionados con diferentes departamentos y áreas de negocio.
Según Bill Inmon, pionero en el análisis de datos, sus características son estar orientada a temas que faciliten su entendimiento; medible en el tiempo con datos históricos, estar integrada en una estructura consistente y no ser volátil, es decir, no se modifica o elimina una vez almacenada ya que su función es ser leída.
Pueden ser de distintos tipos; bases de datos estáticas (sólo lectura para Business Intelligence y otras áreas de análisis histórico), dinámicas (actualización, organización de información), bibliográficas, de texto completo, especializadas o directorios (listas con grandes volúmenes de datos personalizados) entre otras.

Es un tipo de análisis que pone el foco en entender el comportamiento de los consumidores, cómo y por qué actúan de una manera determinada. Este tipo de análisis es hoy en día el gran motor de la publicidad en el mundo digital: si mientras navegas en internet o te relacionas en una red social la publicidad que se te muestra es exactamente eso que justo necesitas, es que el los modelos analíticos están consiguiendo su objetivo.
Los modelos digieren los patrones de navegación, interacciones en redes sociales, cestas de la compra, etc predicendo las reacciones potenciales de los clientes en determinadas circunstancias.

Es una tecnología que permite realizar cualquier tipo de transacción de manera segura entre dos o más personas sin necesidad de intermediarios, a través de internet.
Funciona como un libro de cuentas digital donde se anotan todas las transacciones con usuarios que verifican y validan cada una, conectados entre sí mediante una red de bloques, imposibilitando cualquier riesgo de fraude dado que una vez se introduce la información esta no puede ser borrada.
C

Es un programa informático basado en inteligencia artificial que es capaz de mantener una conversación con un usuario mediante respuestas automatizadas a sus dudas o cuestiones más habituales.
Se diseñan para interpretar al cliente, entenderlo, procesar sus respuestas y poder actuar sobre las mismas, con un aprendizaje continuo. Cuanto mayor sea su entrenamiento y adaptación a clientes, mejor será su capacidad de interpretarlos.

D

Es un enfoque empresarial basado en la toma estratégica de decisiones a partir del análisis e interpretación de datos.
Con este enfoque, las empresas pueden extraer, personalizar y visualizar los datos que quieren ver, generar informes y mensajes personalizados en el momento en que los necesitan y adaptar cada decisión en base a la información de los datos, ofreciendo ventajas y oportunidades de mayor margen de actuación a los ejecutivos para tomar mejores decisiones de negocio.
Es el perfil encargado de diseñar, desarrollar, construir, probar y mantener los sistemas de procesamiento de datos con el objetivo de preparar todo el ecosistema de los mismos para que los demás puedan obtener sus datos limpios, filtrados y preparados para su análisis.
Para su trabajo, debe conocer cómo se modelan y limpian los datos, tener un amplio conocimiento del lenguaje SQL ya que el modelo relacional sigue siendo estándar en la generación y consulta de datos, dominio sobre los sistemas operativos con que trabaje: Windows, Linux, Unix y conocimiento en los lenguajes de análisis R o Python.
Al depurar las grandes cantidades de datos con procesos de limpieza, validación y agregación, facilita que la información llegue tratada para su implementación y uso a sus compañeros.

Profesional encargado de supervisar la calidad de los datos en su producción, para generar valor a partir de la información de esos datos y producir insights precisos de manera consistente.
Entre sus funciones se encuentran la limpieza y mantenimiento de los datos, mantener los permisos de regulación en regla y total transparencia sin generar confusiones en el equipo, mantener el orden de los datos, seleccionar las mejores herramientas y enseñar los mejores procesos analíticos al equipo.


Se trata del ciclo de vida del dato, desde su origen a sus movimientos en el tiempo, junto a sus características y su calidad, hasta transformarse en información de valor para un negocio.
Puede verse representado de forma visual para observar el flujo del dato a lo largo de la arquitectura de la organización, de modo que podemos conocer quién usa cada dato, qué significa su uso, cómo se relaciona con el resto de los datos, por qué se almacena, cuándo se accede a su información y dónde se aplica.
Entre sus beneficios se encuentran proporcionar comprensión y validación del uso de los datos en cada negocio, proporcionar información interna para mejorar los procesos y detectar oportunidades e impulsar la calidad de la información.



Es un experto en Data Science cuyo trabajo consiste en extraer conocimiento a partir de los datos. Nace de la evolución del analista de datos tradicional, pero en vez de basarse en una única fuente, este explora y analiza datos de múltiples e inmensas fuentes a partir del entorno Big Data.
Es un perfil con una fuerte visión de negocio y capacidad predictiva, que le permite desarrollar nuevos productos en base a la demanda y adaptar los actuales a cada área de negocio donde vaya a emplearse, desde finanzas a marketing, pasando por RRHH, gestión de clientes y ventas.


Es un proceso analítico que permite tomar decisiones basadas en el contraste de los datos con los objetivos, operaciones y estrategia de la empresa, permitiendo optimizar los recursos e inversiones.
La oportunidad de este proceso se basa en poder predecir y considerar los elementos que pueden mejorar el desarrollo del negocio, permitiendo mejorar la planificación gracias al estudio de los datos.
Su metodología se basa en definir cuáles son los objetivos de la empresa (ej., aumentar las ventas optimizando la inversión), identificar las métricas que nos van a permitir cumplir esos objetivos (ej., inversión en Customer Experience) y desarrollar una jerarquía de causas y efectos (o drivers) que afectan a las métricas definidas (contacto a cliente, precios…etcétera).
F

Es una técnica de previsión y estimación de la demanda futura que tendrá un producto o servicio, cuyo objetivo es contar con la mayor cantidad de datos históricos y datos en tiempo real para realizar la mejor anticipación y poder adaptar las estrategias de negocio.
Los pilares que fundamentan el forecasting se basan en cuatro fuentes de información: datos históricos, datos actuales, donde también entran los datos en tiempo real, datos futuros y visión de negocio o datos hacia donde nos queremos orientar.
Su aplicación y aporte al beneficio empresarial está dirigido a departamentos de ventas, marketing y producción principalmente, dado que con una buena estimación de la demanda podremos optimizar todo el proceso productivo, los objetivos de venta e incluso el equipo humano.
I

Es una medida que permite capturar la opinión del cliente sobre un producto o servicio en base a la experiencia que le haya reportado, a partir de sus expectativas, conociendo así si se han cumplido, mejorado o fracasado.
Elemento clave de la estrategia empresarial, permite conocer a los clientes en cada interacción con los mismos, pudiendo actuar en cada momento para mejorar su experiencia.
Su cálculo se basa en asociar los indicadores que nos den los clientes con cada elemento que sea relevante medir para la compañía, ponderando también la relevancia que dan los clientes a cada uno.
De este modo, con métodos como encuestas las compañías pueden segmentar clientes, conocerlos y personalizar cada interacción, gracias a las nuevas tecnologías y la analítica de datos del consumidor.

Es la ciencia basada en simular en una máquina la capacidad cognitiva de los procesos de inteligencia humana, pasando por el aprendizaje adquiriendo información y reglas para su uso, el razonamiento usando esas reglas para sacar conclusiones y actuar y la autocorrección ante un problema o mala gestión.
Existen dos tipos: sistemas que actúan de forma inteligente, IA simbiótica y sistemas que directamente piensan de forma inteligente, IA subsimbólica.
K

M


Los metadatos son datos que describen otros datos. Son atributos que, vinculados a un archivo, facilitan su gestión operativa y analítica. Por ejemplo, informan desde el autor y la fecha de creación o modificación, hasta la descripción de su contenido. En el contexto actual de Big Data, IoT y Cloud Computing, son de máximo valor al aportar información estandarizable y estructurada de contenidos desestructurados como pueden ser imágenes y vídeos.
La gestión de los metadatos es de gran ayuda para ganar en eficiencia operativa y/o tomar mejores decisiones para la obtención de ventajas competitivas.
P

Se utiliza mucho para tareas de procesamiento de texto y de limpieza y depuración de datos.

Auna la inmediatez, inmersión e interacción, online, con el uso de la tecnología incorporada en la tienda física, offline, mejorando y personalizando la experiencia del usuario gracias a los datos que nos proporciona con cada interacción.
Algunos ejemplos de estas tecnologías phygital serían los Códigos QR, VR, IoT, Light ID o probadores inteligentes entre otros.

Es un lenguaje de programación multiplataforma, de tipado fuerte e interpretado, que destaca por su código legible y limpio cuya licencia abierta permite su uso en diferentes plataformas sin necesidad de pagar ningún extra.
Ideal para trabajar con grandes volúmenes de datos ya que facilita su extracción y procesamiento, siendo el más utilizado por empresas que operan con Big Data.
Su objetivo es la automatización de procesos para ahorrar complicaciones y tiempos, cuyos procesos se reducirán en pocas líneas de código a insertar en una variedad de plataformas y sistemas operativos.
R

Es una solución open source (gratuita) orientada al análisis estadístico de datos, que cuenta con todas las técnicas estadísticas posibles , una gran capacidad para generar gráficos de alta calidad y visualización data y una funcionalidad de cálculo numérico muy útil aplicable en la minería de datos.
Puede integrarse con distintas bases de datos y otros lenguajes programáticos como Perl y Python.
Es uno de los lenguajes de programación más utilizados en analítica de datos (series temporales, clusters, regresiones etcétera), investigación científica, minería de datos, data science, investigación informática y matemáticas financieras.

Un patrón supone la existencia de una estructura recurrente o regular en un conjunto de datos. Para el reconocimiento de patrones los objetos se representan por un conjunto de descriptores que permiten su agrupación en categorías o clases.
Así, el primer paso, es identificar las características que se utilizarán como descriptores – utilizando para ello estrategias de selección de variables. A continuación, se aplican modelos de clasificación que generan grupos representados por un mismo patrón. En el proceso de clasificación se utilizan, entre otros, modelos de clusterización, estadísticos y redes neuronales. En el caso de que dispongamos de un grupo de datos existente y/o recurrencia en el proceso, la clasificación podrá ser supervisada (machine learning) o no supervisada (sin aprendizaje).
S

V

Podemos estimar su probabilidad de ocurrencia gracias a esa relación y su valor dependerá de los cambios que se produzcan en el modelo.
W
