Destacado 

¡QUÉ ESCÁNDALO! ¡YO TAMBIÉN SOY UN DATA SCIENTIST!

¡QUÉ ESCÁNDALO! ¡YO TAMBIÉN SOY UN DATA SCIENTIST!

 

Y sí, realmente lo es: un escándalo.

 

Nuestra vida -en todas sus facetas- está repleta de datos de todo tipo -números, textos, objetos, gestos-. Así que, ¡cómo no vamos a estar analizándolo todo! cuando “analizar” no es más que procesar la información que recibimos a través de lo que vemos, leemos, oímos o tocamos con el fin de llegar a una conclusión. El proceso que utilizamos para llegar a esa conclusión es lo que podemos denominar Data Science. Entonces… ¿todos somos Data Scientists? en realidad sí. Lo somos.

 

Entonces... ¿Todos somos Data Scientists?, en realidad sí, lo somos

 

Pero es importante entender que nuestra capacidad de análisis no tiene siempre la misma precisión. El volumen de datos que barajamos o el número y dificultad de las preguntas que nos hacemos, marcan la complejidad del entorno a resolver y hacen que necesitemos mayor o menor profundidad de análisis. Aquí es donde nuestras inseparables aliadas -las matemáticas y la estadística- entran en escena junto a los diferentes paquetes informáticos que permiten que el volumen y la complejidad no sean un problema.

 

Pongamos un ejemplo sencillo que todos hemos vivido: cruzar la calle

 

Nos encontramos parados ante la luz roja de un semáforo. Todos sabemos que cuando está roja debemos parar, este es el primer y más sencillo ejemplo de análisis de información: recojo el estímulo (luz del semáforo), lo proceso (analizo qué significa) y tomo una decisión (paro o camino). Por lo tanto, rojo=paro, verde=cruzo. Hasta aquí todo bien, pero ¿y si aparece el controvertido color ámbar? Cuando el semáforo está en ámbar, el problema se hace más complejo. Esto es debido a que, en apenas décimas de segundo debemos evaluar si nos dará tiempo a cruzar antes de que esté rojo y al mismo tiempo, si los coches que se acercan van a parar o no. El proceso analítico ya utiliza la estadística: estimo el tiempo que tardará el semáforo en ponerse rojo (inferencia estadística) y trato de predecir el comportamiento de los coches, es decir, evalúo cuál es la probabilidad de que alguno no pare -según el número de coches que se acercan al semáforo y la velocidad que tienen- y tomo una decisión.

Como éste, hay cientos de ejemplos cotidianos de estimaciones e inferencias: ¿A qué hora debo salir de casa para llegar bien al trabajo sabiendo que hay mucho tráfico? o ¿cuánto dinero debo llevar para poder hacer la compra semanal habitual?

 

Los procesos Data Science no son misteriosos, eso sí, resolver los problemas con efectividad es lo que puede resultar más o menos complejo.

 

Y es aquí precisamente donde radica el reto: encontrar las soluciones específicas que aporten gran capacidad para procesar todo tipo de información, sin importar el volumen. Resolver problemas complejos puede ser francamente sencillo siempre que el problema esté bien definido y se utilicen los algoritmos precisos.

Hasta aquí todo claro. Ya sabemos qué es Data Science y ahora toca preguntarnos ¿cómo hacemos Data Science? Bien, aquí entra en juego una de las palabras que, muy probablemente, más has escuchado en los últimos meses: ALGORITMO. Y es que para hacer Data Science, tenemos que utilizar un algoritmo que permita resolver el problema en cuestión.

Para empezar, un algoritmo no es más que un listado o conjunto de instrucciones que permiten obtener una solución a un problema. Algo tan fácil como hacer una receta de cocina ¿por qué nos resulta tan complicado? Simplemente porque las instrucciones que solemos usar para resolver problemas tienen que ser comprendidas por un ordenador y tienen que ser traducidas a un lenguaje que él entienda.

Imaginad que queremos que sea un robot el que prepare una receta de cocina, unas tortitas, por ejemplo. Este algoritmo tenemos claro que será bastante más complicado ya que partimos de la base de que al robot hay que describírselo todo en lenguaje binario y cuando digo todo, es TODO. Él no sabe lo que es un huevo, ni que tiene forma ovalada o una cascara que ha de desecharse. No sabe que a los huevos hay que batirlos…Por lo tanto, vemos claramente como el conjunto de instrucciones ya no es tan pequeño, ni sencillo, ni fácil. Pero el problema que resuelve es el mismo: cocinar una receta.

La mayoría de los algoritmos son utilizados por ordenadores y, por lo tanto, han de ser programados. Pero, como en otras muchas facetas de la vida, la solución… ¿es siempre exactamente la misma? En ocasiones sí, pero en otras muchas, no.

Si buscamos la receta de tortitas en internet ¿encontraremos que no todas tienen los mismos ingredientes? Y en el caso de que sí los tengan ¿se mezclan en la misma proporción? La respuesta es no, y no. Y si queremos que nuestro robot aprenda a cocinar, ¿qué debe hacer? Fácil. Entrenar para aprender. ¿Y si lo decimos en inglés?: Machine Learning.

 

El Machine Learning logra el aprendizaje de los ordenadores a partir de la introducción de datos y la ejecución de algoritmos.

 

Es decir, si le programamos para preparar la mejor receta permitiéndole variar la receta y le ponemos nota, cada vez que haga esa receta lo hará mejor.

Ahora bien, ¿es nuestro robot o son nuestros ordenadores, autónomos? Sigamos con nuestras tortitas. Nuestro robot seguirá haciéndolas y perfeccionándolas porque es lo que le hemos programado que haga a través de algoritmos. Pero para ser autónomo, debería saber cuando tiene que preparar unas tortitas más o menos dulces en función del acompañamiento que éstas lleven, o si hacerlas más finas o más gruesas, o incluso darse un día cuenta de que podría innovar con nuevos ingredientes. La autonomía es un sentimiento o habilidad cognitiva claramente humana y solamente cuando nuestro robot tenga la misma capacidad de aprender que un humano, entonces sí podremos decir que es autónomo y podremos hablar de Inteligencia Artificial.

Por primera vez, no hablamos de la capacidad de las máquinas para imitar un comportamiento, sino de su capacidad para razonar, pensar y aprender de la misma manera que el ser humano. Esta es una de las principales diferencias que encontramos entre Machine Learning (aprendizaje mecánico) e Inteligencia Artificial (aprendizaje similar al humano).

Desde que John McCarthy lo mencionase por primera vez en 1956, el desarrollo de la Inteligencia Artificial ha sido exponencial e incluye aspectos como la predicción de comportamientos -que comenzamos a conocer con las partidas de ajedrez entre Kasparov y el supercomputador Deep Blue a finales de los 90- el desarrollo de procesos industriales y de fabricación, la capacidad de las máquinas para el procesamiento del lenguaje natural (PLN), las respuestas automatizadas (chatbots), el cuidado y detección de enfermedades, la educación, la robótica…

Actualmente convivimos con muchos modelos de Inteligencia Artificial -Google, Amazon, Spotify- asistentes virtuales -Cortana o Siri- y todos los que quedan por llegar y que sin duda nos llevará al consiguiente debate: ¿nos quitarán las máquinas nuestra forma de vida?

Tendremos tiempo de debatirlo en mi próximo post :)

 

Madrid, 14.03.2019.

CONEXIONES ENTRE EL CEREBRO Y LA IA

Artículos relacionados

By accepting you will be accessing a service provided by a third-party external to https://www.bedatascience.com/

¿CONECTAMOS?

BEDATASCIENCE

Sede Comercial:

C/ Eloy Gonzalo, 27 - 2ª; 28010 Madrid

Producción Analítica:

C/ Jazmín 66, 1ª; 28033 Madrid

911 250 514