La Inteligencia Artificial (IA abreviada y "AI: Inteligencia Artificial" para hablantes de inglés) es la tecnología de creación de programas de computadora o robots capaces de realizar tareas realizadas por el hombre que pide comprensión, razonamiento y adaptación., un aprendizaje, una organización y memoria.

¿Cómo definir la inteligencia artificial?

La inteligencia artificial se usa hoy en varias áreas, tales como:

  • el sistema bancario (sistemas de evaluación de riesgos vinculados a la concesión de crédito),
  • juegos o videojuegos (juegos de ajedrez informáticos, por ejemplo, con estrategias inteligentes),
  • el ejército (con el desarrollo de sistemas autónomos como los drones),
  • medicina (con sistemas de soporte de diagnóstico),
  • sistemas de reconocimiento de voz o faciales, GPS, teléfonos inteligentes o incluso automóviles (por ejemplo, automóviles autónomos de Google Cars).

Esta técnica que tiene como objetivo mejorar la vida de los hombres, debutó en los años 50 y, por lo tanto, ha seguido evolucionando. Desde la simple computadora capaz de realizar algunos cálculos, pasamos a drones semiinteligentes autónomos.

La Inteligencia Artificial conoce una progresión excepcionalmente rápida y tiene efectos indirectos bastante positivos, ya que estimula la creatividad, ahorra tiempo (en automóvil, por ejemplo, gracias a Bluetooth, puede pedirle a su teléfono inteligente que llame a un corresponsal este último marcará el número él mismo.
Esto también es beneficioso para su seguridad en el automóvil) y optimiza el intercambio de ideas y conocimientos.

¿Cuáles son los desafíos de la IA en 2020?

El objetivo de la inteligencia artificial es reproducir el sistema cognitivo humano para aliviar a los hombres. Tal tecnología se basa, por supuesto, en el uso de algoritmos avanzados.

Si la IA tiene un impacto en nuestra vida diaria, también tiene como objetivo transformar los límites restantes entre el hombre y la máquina. En 2020, tres problemas principales están íntimamente relacionados con la inteligencia artificial.

Cuestiones económicas

En 2020, ha llegado el momento de la "plataforma" de la economía. Las empresas están comenzando a buscar datos digitales a través de sus sitios web. En los Estados Unidos, GAFAM (Google, Amazon, Facebook, Apple, Microsoft) tienen el monopolio del mercado. Pero China también es un tamaño en esta área.

Además, la automatización de las tareas y la democratización de las RN probablemente destruyan más empleos de los que crean.

Cuestiones éticas

Hoy en día, todas las aplicaciones domésticas presentan riesgos importantes en materia de respeto de la vida privada y de los datos personales. ¿Cómo podemos estar seguros de que los datos de los usuarios no se venderán a la empresa más rentable? Por lo tanto, ahora se debate la definición de un estatus legal completo para robots y otras inteligencias artificiales.

Problemas tecnológicos

AI también presenta problemas tecnológicos, que están relacionados con los algoritmos utilizados. Por ejemplo, a menudo se plantea la cuestión de la piratería de vehículos (drones, automóviles autónomos) o la pérdida de control de uno u otro de estos sistemas. Además, la elegibilidad de ciertos algoritmos no puede garantizarse sin la implementación de herramientas de verificación.

Como indicación, en el caso de los algoritmos utilizados para la difusión de noticias en las redes sociales o incluso de anuncios personalizados, nada prueba que la información transmitida no sea falsa (noticias falsas).

¿Cuáles son los límites de la inteligencia artificial?

La inteligencia artificial tiene la fuerza para reproducir un comportamiento inteligente similar al de un hombre, pero también tiene limitaciones. La IA es realmente incapaz de sentir sentimientos, de tener una conciencia (que es más bien biológica y no material).

Es imposible para él superarse, criticarse o corregirse a sí mismo. Para esto requiere intervención humana.

Los desarrolladores están trabajando para hacer que estos programas sean más eficientes, o simplemente tratan de humanizarlos. Esto podría conducir a desviaciones, de ahí la preocupación de algunos usuarios y científicos.

Estas preocupaciones llevaron a Isaac Asimov, un escritor de ciencia ficción, a establecer leyes para, según él, limitar la influencia de las máquinas:

  • (i) Un robot no puede dañar a un ser humano o, mientras permanece pasivo, dejar a ese ser humano expuesto al peligro,
  • (ii) Un robot debe obedecer las órdenes dadas por los seres humanos, a menos que tales órdenes contradigan la Primera Ley,
  • (iii) Un robot debe proteger su existencia en la medida en que dicha protección no entre en conflicto con la Primera o Segunda Ley.

¿Qué está haciendo la investigación de IA en Francia?

En un informe publicado en marzo de 2020, la Oficina Parlamentaria para la Evaluación de Opciones Científicas (OPECST) destaca el papel de varios organismos públicos franceses en la investigación de IA. El Instituto Nacional de Investigación en Información y Automatización (UNRIA) parece ser la organización más involucrada en este campo en Francia.

El CNRS, el CEA y algunas universidades están siguiendo la tendencia. Sin embargo, según OPECST, la comunidad francesa en torno a la inteligencia artificial no está suficientemente organizada, y es especialmente visible. Parece que Francia se está quedando atrás en esta área, en comparación con China y los Estados Unidos.

Para leer también:

  • ¿Qué es la realidad virtual? ¿Qué modelo elegir?
  • TV HD: para una mejor calidad de imagen
  • Transmita su contenido multimedia con Chromecast

Categoría: