es
Books
Erik Larson

El mito de la inteligencia artificial

  • Karen Ortegaцитируетпозавчера
    La imaginación incluye inferencias que no existen dentro de un conjunto de datos. Y el acto de imaginar requiere, más que ninguna otra cosa, de la conjetura. La abducción es una inferencia que yace en el centro de toda la inteligencia.
    Aunque en estos últimos tiempos los investigadores parecen haberlo olvidado, a lo largo de la mayor parte de la accidentada historia de
  • Karen Ortegaцитируетпозавчера
    resumen, las inferencias abductivas, misteriosas y maravillosas, impregnan nuestra cultura; son, en un sentido amplio, lo que nos convierte en humanos. Es posible que el sueño de una IA capture algún día esos saltos de manera automática, pero mientras tanto deberíamos admitir que la verdad es que no sabemos cómo mecanizar nuestra experiencia.
    Todos los caminos conducen a este punto: a la IA le f
  • Karen Ortegaцитируетпозавчера
    aprendizaje automático y el big data presentan otro problema, conocido como «saturación», que afecta la esperanza de obtener una inteligencia artificial general. La saturación se da cuando, al añadirle más datos —más ejemplos— a un algoritmo de aprendizaje (o técnica estadística), no se suma nada al rendimiento de los sistemas. No existe ningún entrenamiento que pueda prolongarse para siempre e ir ofreciendo una precisión cada vez mayor para un problema. Con el tiempo, el añadido de datos deja de incrementar el rendimiento. Los sistemas exitosos alcanzan una precisión aceptable antes de saturarse; si no es así, el problema no se podrá resolver utilizando el aprendizaje automático. El saturado es un modelo definitivo, que no mejorará por mucho que se le añadan más datos. En algunos casos podría incluso empeorar, aunque las razones para ello son demasiado técnicas para explicarlas aquí.
  • Karen Ortegaцитируетпозавчера
    DEL CONOCIMIENTO COMPUTACIONAL COMO POZO SIN FONDO
    En eso radica el problema del «pozo sin fondo»: llenar una base informática de conocimiento con afirmaciones expresadas en forma de proposiciones (dentro de una lógica) es una tarea interminable. No podemos resolver siquiera problemas simples de sentido común, como razonar sobre lo que sucede en una calle o barrio de una ciudad, sin codificar de manera eficaz inmensos volúmenes de conocimiento en apariencia irrelevante.
    También está el proble
  • Karen Ortegaцитируетпозавчера
    Peter Norvig, director de investigación en Google, confesó a The Atlantic la ansiedad que le generaba la saturación: «Podríamos dibujar la siguiente curva: a medida que vamos ganando en datos, ¿hasta qué punto mejora nuestro sistema? —se preguntaba—. Y la respuesta es que continúa mejorando..., pero estamos llegando a un punto en el que obtenemos menos beneficios que en el pasado».13
  • Karen Ortegaцитируетпозавчера
    de la esquina, continúan en fase de investigación intensa, y sin duda parte del problema radica en los datos de entrenamiento de las fuentes de vídeo etiquetadas, que no resultan insuficientes en número, pero sí inadecuadas para afrontar problemas de cola larga con escenarios de conducción atípicos que no obstante se han de tener en cuenta por razones de seguridad. Los modelos se están saturando, tal y como predijo Norvig. Es evidente que existe la necesidad de nuevos enfoques. Esas consideraciones son uno de los motivos por los que el llamado crecimiento en escala desde un éxito inicial hasta otro en toda regla resulta ingenuo y simplista. No se puede hacer que un sistema crez
  • Karen Ortegaцитируетпозавчера
    Pero ante aquel enfoque afloraron varios desafíos de importancia. El primer problema era evidente, o debería haberlo sido: la mayor parte de lo que sabemos es implícito. Llevamos ese conocimiento a la consciencia, volviéndolo explícito, solo cuando lo requieren las circunstancias, como cuando nos sorprendemos o tenemos que reflexionar sobre algo de manera deliberada.
  • Karen Ortegaцитируетпозавчера
    Puesto que no disponemos de ella (aún), podemos concluir desde ya que no nos encontramos en la senda de la inteligencia artificial general.13
    He señalado con anterioridad que la conjunción del supuesto de frecuencia y de la restricción empírica eliminan la inducción como estrategia completa de cara a una inteligencia artificial general. La dependencia en las frecuencias de datos nos conduce al pavo de Russell, cuya confianza en que el
  • Karen Ortegaцитируетпозавчера
    aprendizaje automático se muestra notablemente obtuso ante esos fenómenos del lenguaje —para disgusto de empresas como Google—. Le encantaría detectar el sarcasmo a la hora de dirigir los anuncios. Por ejemplo, si «¡Tráete la crema solar!» es un comentario sarcástico en una entrada sobre una tormenta de nieve, un sistema de colocación de anuncios sensible al contexto intentaría emitir en su lugar el anuncio de unos calcetines calefactables a pilas.
    La hipótesis de frecu
  • Karen Ortegaцитируетпозавчера
    observador hace poco, los macrodatos se han convertido
fb2epub
Перетащите файлы сюда, не более 5 за один раз