Meta acuerda cambiar el algoritmo publicitario en el acuerdo del DOJ por violar la FHA

Meta acordó cambiar su algoritmo publicitario para que sea menos discriminatorio, según un comunicado de prensa del gobierno.

La compañía le dijo al Departamento de Justicia (DOJ) que cambiaría su algoritmo como parte de un acuerdo de conciliación que resuelve las acusaciones de que Meta violó la Ley de Vivienda Justa (FHA). Según el Departamento de Justicia, el sistema de publicidad de viviendas de Meta discriminó ilegalmente a los usuarios de Facebook en función de su «raza, color, religión, sexo, discapacidad, estado familiar y origen nacional».

El acuerdo resolvió la primera demanda del Departamento de Justicia que impugnaba la discriminación algorítmica en virtud de la Ley de Vivienda Justa. La demanda alegó que Meta usó algoritmos que se basaban, en parte, en características protegidas por la FHA para determinar qué usuarios de Facebook recibieron anuncios de vivienda.

Según el nuevo acuerdo, Meta acordó «desarrollar un nuevo sistema durante los próximos seis meses para abordar las disparidades raciales y de otro tipo causadas por el uso de algoritmos de personalización en su sistema de entrega de anuncios para anuncios de viviendas», pero el nuevo algoritmo debe ser aprobado. por el DOJ antes de que se implemente. Si el DOJ determina que el algoritmo es insuficiente para resolver su queja, se rescindirá el acuerdo de conciliación.

La demanda se basó en tres aspectos clave del sistema de entrega y orientación de anuncios de Meta, alegando que la empresa «permitió y alentó» a los anunciantes a decidir si los usuarios eran elegibles para recibir anuncios de vivienda basándose en atributos de identidad protegidos. La demanda decía que Facebook luego desarrolló una herramienta llamada «Público similar» que utilizó el aprendizaje automático para encontrar usuarios de Facebook que compartían similitudes con aquellos considerados elegibles para anuncios de vivienda, también utilizando características protegidas por la FHA. Finalmente, la demanda alegó que Meta usó esas características para determinar qué subconjunto de la audiencia objetivo de un anunciante recibiría los anuncios.

Meta también fue multada con $115,000.

El acuerdo establece que Facebook debe dejar de usar la herramienta «Público similar» (ahora llamada «Público de anuncios especiales») para enero de 2023, y establece el mismo cronograma para que la empresa desarrolle un nuevo algoritmo para determinar la selección de anuncios de viviendas.

“Este acuerdo es histórico, ya que marca la primera vez que Meta acepta cancelar una de sus herramientas algorítmicas de orientación y modificar sus algoritmos de entrega para anuncios de viviendas en respuesta a una demanda de derechos civiles”, dijo la fiscal general adjunta Kristen Clarke. “El Departamento de Justicia se compromete a responsabilizar a Meta y otras empresas de tecnología cuando abusan de los algoritmos de manera que dañan ilegalmente a las comunidades marginadas”.

Meta no es la única empresa de tecnología que ha sido criticada por violar la Ley de Vivienda Justa. En abril, el gigante inmobiliario Redfin acordó pagar una multa de $4 millones e implementar un nuevo sistema de monitoreo interno como resultado de una demanda de la Alianza Nacional de Vivienda Justa. Zillow, otro gigante de la tecnología inmobiliaria, ha sido acusado varias veces de alojar listados que violan la FHA.

Lea más sobre la cobertura de tecnología y política del Daily Dot

*Primera publicación: 22 de junio de 2022 a las 3:32 p. m. CDT

jacob seitz

Jacob Seitz es un periodista independiente originario de Columbus, Ohio, interesado en la intersección de la cultura y la política.

También te podría gustar...