2 minute read

MICROPROCESADORES, automatización, big data e inteligencia artificial

Next Article
Arroz negro

Arroz negro

Francisco Arteaga Checa. Profesor en el Departamento de Tecnología

Esteartículopretendeaportar,con carácterdivulgativo,informaciónsobrelasbasesen lasque se asienta la llamadainteligencia artificial Si en algún caso losexpertos en informática o telecomunicaciones del institutodetectanalgúntipodeinexactitudogeneralización,lesruegoqueseanindulgentes.

Advertisement

Corría el año 1971, cuando la empresa norteamericana Intel anunciaba el lanzamiento del primer microprocesador de la historia, Intel 4004, que tenía la capacidad de realizar hasta 60.000 operaciones por segundo En el año 2022 los rendimientos de estos dispositivos alcanzaron los 2,3 billones de operaciones por segundo, lo que posibilita generar cantidades enormes de datos que han de ser trabajados y relacionados si queremos extraer de ellos alguna utilidad (Big Data). Es decir, la enorme capacidad de procesamiento de información de las máquinas actuales las capacita para tomar datos de otras, casi en tiempo real, a través de sistemas de comunicación de alta velocidad, y tomar estos datos como una señal de entrada, actuando como un autómata para realizar una operación, lo que abre las puertas de ese inmenso y nuevo mundo que es la inteligencia artificial.

Es posible definir la inteligencia artificial como aquella disciplina científica que trata de desarrollar software capaz de emular las capacidades humanas, de relacionar variables, entender, comprender y resolver problemas La diferencia más importante con un programa informático ordinario, es que la inteligencia artificial puede actuar independientemente de la existencia de órdenes para ejecutar una tarea, ya que es el propio software el que genera estas órdenes en función de los datos que se le aportan.

Con la inteligencia artificial ocurre lo mismo que con las personas, ya que ambas necesitan de un proceso de aprendizaje para realizar una tarea nueva Una aplicación de inteligencia artificial ha aprendido cuando consigue reaccionar correctamente y de manera autónoma a una señal de entrada, prediciendo un resultado, en un proceso que se denomina aprendizaje automático donde la máquina es capaz de aprender de sus errores, modificando así su modelo hasta lograr la efectividad deseada, y cuando no sea posible disponer de la etiqueta que permita conocer de antemano cual es el resultado deseado al que tiene que aproximarse la máquina, entonces será el propio algoritmo el que deba encontrar relaciones durante el proceso de análisis, extrayendo la información relevante contenida intrínsecamente en los datos, hasta ser capaz de predecir un resultado sólido Sin ir más lejos, seguro que en alguna ocasión habéis interactuado con un sistema como el desbloqueo de dispositivos móviles por reconocimiento facial Este dispositivo utiliza diferentes capas de “redes neuronales” para:

1. Tomar las características de una cara.

2. Mapear las características de la cara detectada.

3. Contrastar las características obtenidas en las dos capas anteriores.

4. Determinar si las similitudes son suficientes para asignar una identidad.

Llegados a este punto, es vuestro turno. ¿Conocéis otro ejemplo de uso de esta tecnología en vuestra vida cotidiana, o quizá de la industria?, ¿comprendéis por qué la inteligencia artificial está cada día más presente en nuestras vidas? ¿Estáis preparados para un cambio más profundo que el traído por Internet o los teléfonos móviles?

This article is from: