bookmate game
es
Books
Erik Larson

El mito de la inteligencia artificial

  • Karen Ortegaцитирует3 дня назад
    Resulta irónico que a esos programas los llamemos «aprendices» porque, para nosotros, el significado del verbo «aprender» implica en esencia huir de los recursos limitados para alcanzar una comprensión más general de las cosas del mundo. Pero los sistemas que juegan al ajedrez no juegan al go, de mayor complejidad. Ni siquiera los sistemas de go juegan al ajedrez. Incluso el muy publicitado sistema Atari del DeepMind de Google generaliza solo entre diferentes juegos de Atari, y ni siquiera logró aprender a jugar a todos ellos. Los únicos que se le dieron bien fueron aquellos que seguían unos parámetros estrictos. Los sistemas de aprendizaje más potentes son mucho más frágiles y limitantes de lo que podríamos suponer. Pero tiene sentido, porque los sistemas no son más que simulaciones. ¿Qué otra cosa podíamos esperar?
    Los problemas con la inducción
  • Karen Ortegaцитирует3 дня назад
    Pero, ya que que la mayor parte del bombo relacionado con el aprendizaje automático —y en especial con el aprendizaje profundo— está relacionada con el aprendizaje supervisado, voy a centrar la discusión principalmente en él. Sin embargo, no olvidemos que todas las limitaciones de origen inductivo que presentan los enfoques de aprendizaje supervisado aparecen con mayor fuerza incluso en el aprendizaje no supervisado. Al centrarno
  • Karen Ortegaцитирует3 дня назад
    dos tipos principales de aprendizaje. Cuando los seres humanos etiquetan el dato de entrada para señalar el resultado deseado, se llama «aprendizaje supervisado». Por el contrario, cuando el sistema analiza los patrones que pueda haber en los datos tal y como son, se llama «aprendizaje no supervisado». También hay un término medio. El «aprendizaje semi­supervisado» se inicia con una semilla, o pequeña parte de datos, que ha sido preparada por los seres humanos, y a continuación la va proyectando cada vez sobre una mayor cantidad de datos sin supervisión.
  • Karen Ortegaцитирует3 дня назад
    Este hecho tiene una importancia enorme, y se pasa por alto demasiado a menudo en los debates sobre el aprendizaje automático. He aquí otro hecho: los límites del mundo de un sistema de aprendizaje automático quedan precisamente establecidos por los conjuntos de datos que se le proporcionen durante su entrenamiento. El mundo real no deja de generar conjuntos de datos: veinticuatro horas al día, siete días a la semana, a perpetuidad. Por ello, cualquier conjunto de datos dado es solo una fracción muy pequeña de tiempo que representa, en el mejor de los casos, una evidencia parcial del comportamiento de los sistemas del mundo real. Ese es uno de los motivos por los que la larga cola de acontecimientos improbables resulta tan problemática: el sistema no cuenta con una comprensión verdadera del sistema real (en comparación con el simulado). Esto es de una importancia tremenda para los debates sobre el aprendizaje profundo y la inteligencia artificial general, y plantea una serie de consideraciones problemáticas sobre cómo, cuándo y hasta qué punto deberíamos confiar en unos sistemas que técnicamente no comprenden los fenómenos que están analizando (salvo por lo expresado en sus conjuntos de datos durante el entrenamiento). Volveremos sobre estos temas en capítulos posteriores, ya que son capitales para comprender el paisaje del mito.
  • Karen Ortegaцитирует3 дня назад
    frecuencia es la asesina del humor. Cuenta el número de artículos periodísticos que incluyen víctimas, pistolas, amenazas y sospechosos que se dan a la fuga. Son de crímenes. El problema del supuesto de frecuencia ante esos ejemplos e
  • Karen Ortegaцитирует3 дня назад
    sistema basado en el aprendizaje profundo que controla esta salida no hace más que entrenar un modelo que, con el tiempo, pasa a reconocer el patrón de noticias que te gusta. Analiza tus clics y comienza a ofrecerte más de lo mismo. Las mismas observaciones pueden aplicarse a las sugerencias de Netflix, Spotify, Amazon y otros sitios web que ofrecen búsquedas personalizadas y una experiencia con recomendaciones. Esa conexión entre frecuencia de ejemplo (o características en ejem
  • Karen Ortegaцитирует3 дня назад
    caso como este, la IA y el aprendizaje absoluto no nos ayudan en nada. Nos hacen daño. Yerran el tiro por completo. Los sistemas de aparente inteligencia artificial general que usen solo el aprendizaje automático serán, en el mejor de los casos, unos eruditos idiotas y molestos.
    En esencia, la teoría subyacente de la inferencia se encuentra en el meollo del problema. La inducción requiere que la inteligencia sea resultado del análisis de datos, pero la inteligencia llega al análisis de los datos como paso previo y necesario. Siempre
  • Karen Ortegaцитирует3 дня назад
    la observación de hechos, por mucho que los analicemos, no nos conduce a una comprensión general ni a la inteligencia.
  • Karen Ortegaцитирует3 дня назад
    14 Stuart Russell encabeza su listado de «Avances conceptuales que están por llegar» con los aún misteriosos «lenguaje y sentido común».15 Pearl también entiende que la comprensión del leng
  • Karen Ortegaцитирует3 дня назад
    El sarcasmo, por ejemplo, resulta especialmente opaco para el aprendizaje automático, en parte porque es menos frecuente que el sentido literal. Resulta que el recuento funciona bien con ciertas tareas evidentes en la red, pero actúa en contra de las de corte más sutil. Si hay millones de ejemplos de ciudadanos enojados que tuitean «¡Trump es un idiota!», cualquier persona que tuitee «Trump es un idiota» con ánimo sarcástico y como respuesta ingeniosa a los críticos en su intento por superar en astucia a un rival, acabará reducido a una nueva instancia del patrón «Trump-idiota». Para comenzar, el algoritmo de aprendizaje no se encuentra en el negocio del conocimiento, así qu
fb2epub
Перетащите файлы сюда, не более 5 за один раз