por Dennis R. Mortensen
CEO y fundador en x.ai
Se ha prestado mucha atención a la forma en que la industria de la Inteligencia Artificial (IA) podría transmitir los sesgos negativos existentes en la miríada de sistemas artificialmente inteligentes que se están construyendo ahora. Como se ha señalado en numerosos artículos y estudios, a menudo no estamos enterados de los sesgos que heredan nuestros datos, de ahí el riesgo de que cada uno de ellos, igualmente inconscientemente, los lleve a cualquier IA que desarrollemos.
Según un estudio reciente, los nombres como “Brett” y “Allison” fueron encontrados por una máquina para ser más similares a las palabras positivas, incluyendo palabras como “amor” y “risa”. Por el contrario, nombres como “ Alonzo “y” Shaniqua “estaban más estrechamente relacionados con palabras negativas, como” cáncer “y” fracaso”.
Estos resultados se basaron en un tipo particular de análisis (análisis empotrado) que mostraba que, para la computadora, el sesgo datos, o más visiblemente, en palabras. Así es, con el tiempo, todas nuestras interacciones humanas sesgadas y presunciones asocian prejuicios a las palabras individuales.
Pero si estamos de acuerdo en que algunos prejuicios perpetúan los comportamientos existentes e inaceptables (racismo, sexismo, edad), también debemos estar de acuerdo en que hay comportamientos deseados para los que debemos diseñar. Esto sugiere una dimensión más esperanzadora a esta historia: podemos programar proactivamente nuestros sistemas de IA para recompensar comportamientos como bondad, empatía, minuciosidad y justicia. Podemos hacer que AI sea una fuerza para el bien.
El sesgo típicamente llega junto con datos del mundo real; Siempre y cuando nuestra sociedad exhiba sesgos negativos, veremos esto reflejado en los datos que recopilamos. La forma más potente (y probablemente la más irrealista) para cambiar este estado de cosas es eliminar el sesgo del conjunto de datos. En otras palabras, todos necesitamos ser mejores personas durante la noche o en un período muy corto de tiempo.
Afortunadamente, hay otra opción. Podemos construir AI que refuerza atributos positivos una realidad, hoy, a través de opciones programáticas de diseño de productos, lo que pone la carga en unos buenos hombres y mujeres. No lo digo ingenuamente, y no voy a fingir que es fácil. Pero es posible.
Los sistemas de IA utilizados en la contratación o en las admisiones a la universidad podrían programarse para ignorar las claves de género y raciales que tienden a penalizar a las mujeres y las minorías aquí en los Estados Unidos. En este caso, el sesgo NO está en los datos, sino en el humano (cliente), que está revisando las solicitudes de la universidad; sus acciones reforzarán sus presuposiciones y sesgarán los datos que surjan de ese proceso.
La programación para combatir esta forma particular de sesgo inconsciente no es de ninguna manera una visión nebulosa del futuro. Hoy en día, la empresa Text.io utiliza AI para aumentar la diversidad en la contratación, dando comentarios en tiempo real sobre las descripciones de puestos de trabajo y ofreciendo sugerencias para el lenguaje que ampliará el grupo de candidatos calificados.
O tomar automóviles auto-conducidos. Los vehículos autónomos podrían recompensar el buen comportamiento; podrían ser programados para rodar hasta un jaywalkers y sonar una alarma para desalentar los cruces de calles aleatorios en el futuro (aunque los neoyorquinos sin duda se rebelen 😉 O automóviles de conducción automática podría impedir que la gente abra la puerta del pasajero al lado del tráfico, para que aprendan a salir correctamente y con seguridad; podrían detenerse si los pasajeros arrojan basura por la ventana o premiar a la gente por dejar los coches tan limpios como los encontraron. Tú entiendes.
AI también podría recompensar el perdón. Sabemos por estudios que las personas tienen una mayor tolerancia a los errores cuando son hechas por humanos. Ellos tienden a perdonar a los seres humanos por lapsos de juicio (incluso los que tienen consecuencias financieras), pero “castigar” (por ejemplo, dejar de usar) el software cuando hace exactamente el mismo error. Y sabemos por datos internos que los humanos atribuyen más fácilmente errores a las máquinas incluso cuando un ser humano tiene la culpa. Podríamos ofrecer fácilmente recompensas, en forma de descuentos o gratificaciones, a personas que muestran curiosidad y compasión en lugar de ira cuando creen que un agente autónomo de AI ha cometido un error.
Aquí en x.ai estamos totalmente enfocados en conseguir que nuestros agentes autónomos de Amnistía Internacional (Amy y Andrew Ingram) organicen reuniones de manera eficiente y eficaz. A medida que desarrollamos el producto, es probable que el factor de buenos comportamientos en el diseño de Amy y Andrew. Por ejemplo, si alguien cancela o reprograma rutinariamente las reuniones en el último minuto, Amy podría insistir en que las reuniones con esa persona están programadas en la oficina del anfitrión (nuestros clientes) para proteger su tiempo y evitar los viajes desperdiciados. Al recompensar a las personas por estar a tiempo y no cancelar las reuniones de última hora, nuestros asistentes de IA podrían empujarnos para que se comporten mejor.
También podríamos habilitar ajustes para equipos que impongan el equilibrio de la vida laboral. Podrías imaginar a Amy cumpliendo una semana de trabajo por defecto de 50 horas, ya que los estudios demuestran las caídas de productividad una vez que se pasa ese umbral de 50 horas. Ella podría dar advertencias a los gerentes cuando los miembros del equipo son rutinariamente la programación fuera de ese parámetro para ayudarles a ayudar a su equipo asignar su tiempo mejor.
AI carece de emoción, pero no es inherentemente neutral, justo o imparcial. Los datos que utilizamos para entrenar estos sistemas pueden perpetuar los comportamientos inaceptables existentes. Sin embargo, creo que podemos acelerar el buen comportamiento y eliminar muchos sesgos socialmente inaceptables a través de opciones de diseño de productos de AI.
(Dennis R. Mortensen es CEO y fundador en x.ai)