Los financiadores comprometen $ 1 mil millones para desarrollar herramientas de IA para trabajadores de primera línea

Una coalición de financieros, incluidos Gates Foundation y Ballmer Group, gastará $ 1 mil millones en 15 años para ayudar a desarrollar herramientas de inteligencia artificial para defensores públicos, funcionarios de libertad condicional, trabajadores sociales y otros que ayudan a los estadounidenses en situaciones precarias.

Los financieros anunciaron el jueves que crearán una nueva entidad, NextLadder Ventures, para ofrecer subsidios e inversiones a organizaciones sin fines de lucro y con fines de lucro para desarrollar herramientas para aquellos que generalmente administran grandes casos con pocos recursos.

“Las soluciones en las que estamos invirtiendo, los cientos de empresarios que presentarán soluciones que incorporen tecnologías de última generación vendrán junto a las personas que viven algunas de las luchas de la economía”, dijo Brian Hooks, CEO de Stand Together, un no Lucro iniciado por Kansas, billonario Charles Koch.

Los otros financiadores incluyen al fundador del Fondo de cobertura John Overdeck y la Fundación Valhalla, que comenzó por el co -fundador de Inuit Steve Cook y su esposa Signby Ostby. El grupo Ballmer es la ex filantropía de Microsoft, Steve Ballmer y su esposa Connie. Los financiadores se negaron a revelar los compromisos financieros exactos realizados por cada empleado.

El objetivo de invertir en estas herramientas de IA es estimular la movilidad económica, un enfoque que todos los financiadores comparten, dijeron. Los financiados creen que hay muchas ideas sobre cómo las tecnologías de IA pueden ayudar a combinar a las personas con recursos después de un desastre o vertido, por ejemplo, o ayudar a un oficial de libertad condicional a cerrar más casos para las personas que han asistido a todos los criterios, pero están esperando el procesamiento de papeles.

“A medida que negociamos notas sobre dónde estábamos haciendo inversiones y dónde vimos brechas más amplias en el sector, era evidente que había una oportunidad real para reunirse como grupo de co -fundadores para establecer un nuevo tipo de organización de inversiones”, dijo Kevin Bromer, quien lidera la tecnología y la estrategia de datos del grupo de Ballmer. También servirá como miembro de la Junta de NextLadder, que incluirá a tres miembros independientes de la Junta y representantes de otros financiadores.

NextLadder estará dirigido por Ryan Rippel, quien previamente dirigió la Fundación Gates Portfolio para la movilidad económica. El Grupo de Financieros aún no ha determinado si NextLadder se incorporará como una organización sin fines de lucro o con fines de lucro, pero dijo que cualquier rendimiento que obtengan con las inversiones volverá al financiamiento de nuevas iniciativas.

NextLadder se asociará con AI Anthrope Company que ofrecerá experiencia técnica y acceso a sus tecnologías a organizaciones y empresas sin fines de lucro en las que invierte. Anthrope ha comprometido alrededor de $ 1.5 millones anuales a la asociación, dijo Elizabeth Kelly, su directora de despliegues beneficiosos, que es un equipo que se centra en regresar a la sociedad.

“Queremos entregar a los beneficiarios mediante el uso de Claude con el mismo cuidado y compromiso que brindamos a nuestros mayores clientes corporativos”, dijo Kelly, refiriéndose al modelo de idiomas de Anthrope.

Los ganchos de Stand Together dijeron que la filantropía puede reducir el riesgo de este tipo de inversiones y ofrecer a las organizaciones más tiempo para probar sus ideas.

“Si tenemos éxito, esta será la primera capital en demostrar lo que es posible”, dijo Hooks.

Investigadores como los de la Red de Aprendizaje Humanitaria y Humanitaria Activa estudiaron parte de los riesgos asociados con el uso de herramientas de IA al interactuar con poblaciones sensibles o tratar interacciones de alto riesgo, por ejemplo, en contextos humanitarios.

Recomiendan evaluar si AI es la mejor herramienta para resolver el problema y trabajar de manera crucial de manera confiable y precisa en configuraciones de alto riesgo. También recomiendan evaluar herramientas de sesgo, considerar las protecciones de privacidad y sopesar el costo de la dependencia potencial de un proveedor específico.

El Instituto Nacional de Estándar y Tecnología también enfatiza que los sistemas de IA confiables deberían ser responsables de los usuarios y que debería ser posible explicar o rastrear cómo una herramienta ha llegado a cierta conclusión o decisión.

Hooks enfatizó que cualquier herramienta de NextLadder de IA estará moldeada por las necesidades y la retroalimentación de estos trabajadores de primera línea. Herramientas que no funcionan para ellos, no tendrán éxito, dijo. Incluso con los riesgos potenciales de las herramientas de IA, dijo que es imperativo que los grupos que luchan por escalar la escala económica tengan acceso a nuevas tecnologías.

“La idea de privar a aquellos que luchan en nuestro país con los beneficios de cortar soluciones de recorte es inaceptable”, dijo Hooks.

___

La cobertura de la Press de Philanthropy Association y la falta de fines de lucro recibe apoyo a través de la colaboración de AP con la conversación, con fondos de Lilly Endowment Inc. El AP es el único responsable de este contenido. Para toda la cobertura de filantropía AP, visite https://apnews.com/hub/philanthropy.