La Inteligencia Artificial carece de Empatía?

Actividad Foros Experiencia del Cliente La Inteligencia Artificial carece de Empatía?

Viendo 7 entradas - de la 1 a la 7 (de un total de 7)
  • Autor
    Entradas
  • #520
    International
    Superadministrador

    La Inteligencia Artificial carece de empatía y sentido común: es una afirmación que se ha repetido en algunos debates. Y, asimismo, que cuando los algoritmos mandan, los valores pueden marchitarse. Construir sistemas de IA responsables empieza por reconocer que las soluciones tecnológicas priorizan implícitamente la eficiencia. La IA y el aprendizaje automático serán el centro de debates durante todo el año 2023, probablemente.

    El interés por las posibilidades que ofrecen los algoritmos y los macrodatos sigue floreciendo a medida que los primeros en adoptarlos obtienen beneficios de los sistemas de IA que automatizan decisiones tan variadas como hacer recomendaciones a los clientes, filtrar a los solicitantes de empleo, detectar el fraude y optimizar las rutas logísticas. Pero cuando las aplicaciones de la IA fallan, pueden hacerlo de forma bastante espectacular. La innovación es necesaria, pero no está exento de riesgos en este caso.

    Aunque no directamente relacionado con la IA, sí hay vínculos entre la empatía y la innovación, según este vídeo:

    #523
    International
    Superadministrador

    Consideremos el reciente ejemplo del escándalo de la «robodeuda» en Australia. En 2015, el gobierno australiano estableció su Programa de Cumplimiento de Ingresos, con el objetivo de recuperar las prestaciones por desempleo e incapacidad que se habían abonado indebidamente a los beneficiarios. Se propuso identificar los pagos excesivos analizando las discrepancias entre los ingresos anuales que declaraban las personas y los ingresos evaluados por la Agencia Tributaria australiana. Anteriormente, el departamento había utilizado una técnica de cotejo de datos para identificar las discrepancias, que los empleados del gobierno investigaban posteriormente para determinar si las personas habían recibido de hecho prestaciones a las que no tenían derecho. Con el objetivo de ampliar este proceso para aumentar los reembolsos y reducir costes, el gobierno desarrolló un nuevo sistema automatizado que presumía que cada discrepancia reflejaba un pago excesivo. Se emitía una carta de notificación exigiendo el reembolso en cada caso, y la carga de la prueba recaía en las personas que quisieran recurrir. Si alguien no respondía a la carta, su caso se remitía automáticamente a un cobrador externo. En 2019, se estimaba que el programa había identificado más de 734.000 sobrepagos por un valor total de 2.000 millones de dólares australianos (1.300 millones de dólares estadounidenses).

    El nuevo sistema se diseñó para optimizar la eficacia, pero sin prestar atención a las particularidades de los casos individuales. La idea era que al eliminar el juicio humano, que está moldeado por prejuicios y valores personales, el programa automatizado tomaría decisiones mejores, más justas y más racionales a un coste mucho menor. Desgraciadamente, las decisiones tomadas por los diseñadores del sistema, tanto en el diseño del algoritmo como en el funcionamiento del proceso, dieron lugar a que el gobierno exigiera reembolsos a cientos de miles de personas que habían tenido derecho a las prestaciones que habían recibido. Algunos se vieron obligados a demostrar que no habían solicitado ilegítimamente prestaciones hacía ya siete años. Las consecuencias para muchas personas fueron nefastas.

    Las revisiones parlamentarias posteriores señalaron «una falta fundamental de equidad procesal» y calificaron el programa de «increíblemente desempoderador para las personas que se habían visto afectadas, causándoles un trauma emocional, estrés y vergüenza considerables».

    #524
    International
    Superadministrador
    #525
    International
    Superadministrador

    Seleccionando algunos de los comentarios que se han hecho aquí, por un lado se ha opinado lo siguiente:

    Esto no es más que burocracia, que ha existido mucho antes que la IA.
    Vale, no es sólo burocracia, porque los errores que comete la IA para favorecer la eficacia son diferentes de los que comete una gran cadena de personas con exceso de trabajo y a veces corruptas. Pero el problema de fondo no es la IA, sino las políticas mal aplicadas que la IA está diseñada para llevar a cabo. Fíjese en cualquier otro sistema tenso (cupones de alimentos, DHS, IRS, no el gobierno sino el servicio de atención al cliente de Google y Amazon), tenemos humanos reales llevando a cabo malas políticas y no es mucho mejor.

    La mayoría de la gente realmente tiene moral y no le gusta hacer daño a los demás, pero esa moral sólo llega hasta cierto punto cuando formas parte de un sistema con escasez de fondos, apático por agotamiento, y literalmente no tienes los recursos o la capacidad para tomar la decisión moralmente correcta. Todo este debate sobre cómo la IA carece de empatía y sentido común da demasiado valor a los humanos que también carecen de empatía y sentido común, y aunque una IA programada para hacer algo poco ético no dudará, la historia y los experimentos demuestran que algunos humanos tampoco lo harán.

    Definitivamente deberíamos aprender y comprender los límites de la IA y su influencia en la ética, y no delegar políticas como las leyes y los ingresos en sistemas 100% automatizados. Pero la IA y la mejora de la eficiencia realmente pueden ayudar a muchas instituciones gubernamentales. Especialmente cuando la IA se encarga de lo mundano y las personas encargadas pueden ocuparse de los casos más difíciles. Porque entonces esas personas pueden emplear mejor su empatía «humana» y la toma de decisiones.

    Sin embaro, otros discrepan de este planteamiento, con los siguientes argumentos: Las decisiones impulsadas por software comparten una característica con cualquier burocracia: su inescrutabilidad. Tanto Hacienda como el centro de datos de Google son cajas negras enormemente potentes, automatizadas y peligrosas. La forma torpe en que se comportan puede atribuirse a veces a la virtud de la simplicidad: hacerlo siempre de la misma manera, sin tener en cuenta el contexto. Cualquier programador reconoce que éste es el programa más sencillo posible. Y si se decide incorporar más «margen de maniobra de la política», esto tiene a menudo el efecto perverso de ser explotado inmediata y despiadadamente de formas que son difíciles o imposibles de hacer cumplir.

    Lo nuevo con las decisiones de software es la falta de responsabilidad de los humanos. Es como el velo corporativo, pero mucho peor. Éste es… real, físico. Un humano puede decir no sólo que no realizó la acción (lo mismo ocurre con un subordinado humano) sino que ahora puede decir a) yo no establecí la política, lo hizo It, y b) no sé dónde se ejecuta, ni cómo cambiarla o detenerla. Imagino que será toda una moda para la cúpula directiva hiperrica delegar en una IA, disfrutar de la vida y de la alta remuneración continuada y la disminución de la responsabilidad y la obligación de rendir cuentas.

    Otra cosa es que, en general, el software acelera la complejidad y nunca la reduce. Vivimos en una época verdaderamente de ciencia ficción en la que tenemos problemas para que nuestra sociedad pueda reproducir a bajo precio dispositivos (chips) con 10^10 estados microscópicos, y nos prohibimos mirar, o incluso saber, cuáles son esos estados. Compramos y vendemos estas diminutas máquinas, y no sabemos realmente lo que hay en su interior. Las conectamos a Internet. Hay tanto espacio para que las cosas se escondan que asusta. Ahora considere que una burocracia típica tiende a hacerlo peor cuanto más complejo es su funcionamiento interno; ahora añada miles, millones de ordenadores, con 10 generaciones de programadores de código empapados de sangre (nota: las generaciones de programadores duran como 5 años).

    #526
    International
    Superadministrador

    También se ha opinado lo siguiente: El interés por las posibilidades que ofrecen los algoritmos y el big data sigue floreciendo a medida que los primeros en adoptarlos obtienen beneficios de los sistemas de IA que automatizan decisiones tan variadas como hacer recomendaciones a los clientes, filtrar a los solicitantes de empleo, detectar el fraude y optimizar las rutas logísticas.
    Sin duda, la optimización de rutas logísticas es un problema de algoritmos y se lleva estudiando desde, idk, ¿mediados de los años veinte? ¿Con la invención de la programación lineal? O quizá más tarde, pero mucho antes que la ola actual.

    Por el contrario, la criba de ciertos solicitantes de empleo se hace ahora de forma agresiva, sin duda, pero no hay pruebas, imo, de que la criba haga algo más que reducir la carga de trabajo del entrevistador.

    Y las recomendaciones de productos es una de esas aplicaciones de las que se habla constantemente y que, en general, son una mierda y cuya ineficacia puede comprobar una persona normal.

    Lo que equivale a decir que tal vez los algoritmos de hoy en día acaben utilizándose porque permiten a la metacorporación actuar como un gigante ciego, que esa es la ventaja principal que tiene el enfoque, y que la ventaja secundaria es justificar ese funcionamiento y que la «mayor eficacia» resulta a veces pero es más a menudo una excusa.

    Algunos piensan que lo mismo puede aplicarse cuando las personas están formadas y tienen experiencia en algoritmos (y otras tecnologías) y no en valores (y otros aspectos de las humanidades). La corrupción extrema que percibo en SV podría ser, en mi opinión, en parte una consecuencia.

    La mayoría de los temas en SV, como la libertad de expresión, el fraude, el impacto de la IA en la sociedad, la desinformación y la desinformación, los derechos laborales, la concentración de riqueza y poder, el papel del gobierno, el gobierno de la mafia en línea, el narcisismo y la megalomanía en los líderes, la corrupción del poder, etc. etc. son principalmente temas de humanidades. Muchos en la tecnología han menospreciado y evitado la educación en humanidades -en sí mismo un acto de sesgo egocéntrico básico y falta de escepticismo- y se nota en los resultados.

    #528
    International
    Superadministrador

    Alguien sostuvo esto, entre los comentarios: ¿Es este «margen de maniobra» la diferencia fundamental entre leyes y algoritmos, tan fundamental que tenemos que temer que los valores se marchiten cuando gobiernan los algoritmos, pero no cuando gobiernan las leyes?

    Es más bien que los valores humanos nunca se han formalizado antes. No está claro que puedan formalizarse de forma sucinta. En realidad, éste es el problema central de la seguridad de la IA: si (cuando) construimos una IA general inteligente a nivel humano, tendrá algún conjunto de valores, pero a menos que esos valores coincidan perfectamente con los nuestros, lo más probable es que este ejercicio resulte letal para la humanidad.

    O, a la inversa, parece que especificar completamente cuáles son los valores humanos equivale a construir una IA general alineada a nivel humano.

    Así pues, la diferencia fundamental entre leyes y algoritmos es que las leyes son ejecutadas por humanos. El sistema de valores compartidos está implícitamente incrustado en el sistema. Incluso los mejores algoritmos que podamos inventar hoy en día no pueden replicar eso, lo que significa que tratar sus resultados como vinculantes dará lugar a juicios que generalmente consideraríamos inmorales, injustos y erróneos.

    #527
    International
    Superadministrador

    Otra opinión: el problema es mucho mayor que una clase de algoritmos (IA) y es en gran medida un efecto secundario del capitalismo tardío.

    El problema principal es que los sistemas de software se basan intrínsecamente en reglas (algorítmicas) y que las reglas codificadas son sólo eso: codificadas, fijas: durante cierto tiempo de un ciclo de lanzamiento, un sistema funcionará de manera fija. Las empresas privadas son las que diseñan y desarrollan estos sistemas, y en lo que respecta a las empresas privadas, el único valor que les importa es el beneficio. La ética apenas entra en discusión cuando se trata de extraer el máximo capital posible. Mientras no haya una sentencia jurídica preestablecida en contra, el capitalista no va a eliminar ningún planteamiento por razones éticas. Peor aún, como el algoritmo es el producto, estas normas se guardan cuidadosamente y a medida que el producto crece en popularidad no es sólo la experiencia, sino el propio modo algorítmico de razonamiento el que empieza a dominar: la gente se muestra complaciente con, por ejemplo, las horrendas prácticas de privacidad porque una ética de la privacidad digital nunca fue una cuestión para empezar y tan pronto como las empresas lanzaron productos basados en esta ausencia se normalizó.

    Los algoritmos en sí mismos no hacen que los valores se marchiten. Una sociedad en la que nunca se tuvo en cuenta otra cosa que el valor monetario establece un entorno en el que los valores se marchitan, independientemente de que esa erosión se realice por medios digitales o mecánicos. Todo vuelve al capital bebé. En otras palabras, los algoritmos son un medio de realizar la ofuscación un modus operandi a-ético que la gran abstracción del capital casi desenfrenado ya permite.

Viendo 7 entradas - de la 1 a la 7 (de un total de 7)
  • Debes estar registrado para responder a este debate.