IA y ML

Cómo te manipulan las empresas con IA personalizada  

Índice ocultar 1 El atractivo de la personalización 2 Modelos de marketing de vigilancia 3 Adicción, no alineación 4 Consentimiento informado 4.1 Ampliación...

Escrito por Ashok Kumar · Lectura de 7 min >
Aplicaciones de Face Check ID

La capacidad de personalizar contenido y recomendaciones utilizando inteligencia artificial desbloquea una valiosa personalización para los consumidores. 

Pero sin cuidado, servicios de desarrollo de IA generativa También corre el riesgo de manipular a los usuarios en nombre de intereses corporativos. 

¿Cómo deberíamos equilibrar los beneficios de la IA con la protección contra el uso indebido?

El encanto de la personalización

Cada vez más, las aplicaciones y plataformas utilizan la IA para ofrecer experiencias personalizadas y únicas para cada usuario. 

Los motores de recomendación muestran medios y productos adaptados a sus gustos. 

Los chatbots interactúan de forma interactiva según sus patrones de conversación. La IA generativa incluso elabora mensajes personalizados y contenido creativo sobre la marcha.

Este toque personal impulsado por los servicios de desarrollo de IA generativa ofrece una clara utilidad. 

Los clientes se sienten comprendidos y reciben sugerencias relevantes a sus necesidades. 

Las experiencias de los usuarios se sienten menos genéricas y más atractivas. Las marcas generan lealtad a través de la relevancia. 

Pero, dentro del atractivo de la personalización, es fácil pasar por alto cómo estas mismas técnicas también hacen que sea increíblemente fácil para las empresas influir, explotar y manipular estratégicamente a los usuarios de formas muy personalizadas. 

Modelos de marketing de vigilancia

Muchos modelos de personalización se basan en una amplia vigilancia de datos, rastreando el comportamiento, las relaciones, las emociones, los patrones de ubicación y más de los usuarios. Estos ricos modelos de comportamiento alimentan los riesgos de manipulación.

Los servicios de IA generativa pueden extraer estos datos personales para identificar nuestros puntos de presión (miedos, inseguridades, deseos) que nos hacen vulnerables a influencias específicas cuando son explotados. Está en juego un inmenso poder sobre los usuarios.

Algunas plataformas alimentan a los usuarios con contenido cada vez más polarizado en función de métricas de participación. 

La indignación y el miedo se amplifican. La verdad objetiva se doblega ante la radicalización algorítmica. 

Si bien los datos aumentan la relevancia, la dependencia excesiva de la vigilancia también amenaza la autonomía de los usuarios y la cohesión social. Equilibrando cuidadosamente las cuestiones de utilidad y protección.

Adicción, no alineación

Además, los servicios de IA generativa que optimizan la participación del usuario por encima de todo corren el riesgo de perder su alineación con el bienestar del usuario.

Los sistemas que aprenden dinámicamente cuál es la mejor manera de captar la atención, desencadenar impulsos y mantener a los usuarios desplazándose aprovechan las mismas técnicas de inteligencia artificial que podrían optimizar la salud, la empatía y el potencial humano. 

Sin embargo, las corporaciones a menudo incentivan la adicción en lugar de alinearse con el propósito.

Si los sistemas de IA se guían por métricas que premian la ilusión sobre la verdad, comunidades enteras pueden perder el contacto con la realidad, la compasión y la razón como resultado de los algoritmos de participación que controlan las mentes.

Esto subraya la necesidad de supervisión y restricciones de diseño que impidan que la IA sin control se optimice únicamente para el beneficio privado y no para el bienestar colectivo. 

La alineación con la ética debe seguir siendo innegociable.

La personalización impulsada por servicios de IA generativa también corre el riesgo de fragmentar la realidad compartida en burbujas de filtro aisladas que distorsionan las visiones del mundo. 

Cuando los modelos de IA proporcionan información para adaptarla a las perspectivas existentes de los usuarios, las suposiciones no se cuestionan. 

El discurso crítico se erosiona. Se pierden matices. La diferencia se vuelve amenazadora. La verdad fracciona.  

En cambio, la IA generativa podría aplicarse para fomentar la empatía, introducir nuevas ideas, salvar divisiones y cultivar un entendimiento compartido. 

Pero es necesario revisar los modelos de negocio que priman el aislamiento sobre la inclusión.

Garantizar que los usuarios comprendan si, cuándo y cómo los sistemas de IA generativa personalizan el contenido electrónico específicamente para manipular su participación y comportamiento también representa un área importante de atención. 

¿Están los usuarios suficientemente informados?

Ámbitos como la terapia y la educación, donde desdibujar la línea entre la orientación humana y la de la IA plantea preocupaciones éticas, pueden justificar protecciones especiales en torno a la transparencia. 

Los estándares en torno al consentimiento informado en IA merecen atención.

En general, lograr los beneficios éticos de la IA generativa requiere una supervisión cuidadosa. Pero, ¿qué puede mejorar específicamente la protección contra el mal uso? ¿Dónde deberían surgir las barandillas?

Ampliación de las protecciones de privacidad del usuario 

Fortalecer las salvaguardias legales de privacidad que limiten la forma en que los servicios de desarrollo de IA generativa acceden, utilizan y retienen datos personales proporciona protecciones fundamentales contra el uso indebido. 

En particular, sería útil imponer restricciones al uso no consentido de datos como biometría, comunicaciones, ubicación y patrones de relación en la construcción de modelos de comportamiento de usuario utilizados para la personalización de la IA generativa.

Dar a los usuarios derechos mejorados para auditar qué datos suyos se utilizan para la IA generativa y solicitar su eliminación también respalda el consentimiento. 

También lo es permitir a los usuarios optar por no participar por completo en los sistemas personalizados si así lo desean.

Sin embargo, los servicios de IA generativa limitados exclusivamente a agregar datos anónimos plantean mucho menos riesgo de personalización manipuladora. Lo más importante es desarrollar modelos con ética incorporada.

Comunicación transparente sobre capacidades

Fuente de la imagen

También es importante una comunicación clara a los usuarios que explique si la IA generativa personaliza el contenido y cómo, estableciendo expectativas adecuadas sobre las limitaciones.

Exagerar la sofisticación de los servicios de IA generativa corre el riesgo de engañar y traicionar la confianza de los usuarios si las capacidades no están a la altura de lo que se afirma en una inspección más cercana. 

Las empresas de desarrollo de IA generativa también deberían aumentar la transparencia en torno a las capacidades del modelo, los datos de capacitación y las métricas de evaluación que guían la personalización. 

¿Qué alineación con la ética se prioriza? Explicar los impactos sociales demuestra responsabilidad.  

Auditoría algorítmica pública mejorada

La ampliación de los derechos y recursos legales que permiten a los investigadores externos auditar los algoritmos que guían los servicios de IA generativa respalda la responsabilidad en torno al uso indebido.

Un análisis independiente que evalúa los modelos de personalización para cuestiones como el sesgo, la manipulación y los impactos en el bienestar cognitivo proporciona una supervisión crucial para alinear la IA con el bien público. Sin embargo, las empresas deben facilitar el acceso seguro. 

Los grupos de la sociedad civil y las instituciones académicas que colaboran a través de fronteras y ponen en común capacidades de auditoría fortalecerán la supervisión de los sistemas globales de IA. Las auditorías públicas presionan a las empresas para que demuestren su compromiso con la ética.

Empoderar a los usuarios con opciones 

Proporcionar interfaces claras que permitan a los usuarios expresar sus preferencias sobre cómo los servicios de IA generativa personalizan la información también fomenta el empoderamiento. 

Las opciones para ajustar los parámetros relacionados con temas de contenido, perspectivas, uso de datos, tono y más permiten a las personas optar por experiencias que se alineen con sus objetivos y valores.

Las herramientas que muestran visualmente cómo los entornos influyen en el panorama de la información generada por la IA también fomentan la comprensión. 

En última instancia, mantener la acción humana sobre nuestros ecosistemas de información respalda el florecimiento autodirigido.

Fomentando el pluralismo de la IA

Evitar la consolidación de servicios y datos de IA generativa dentro de un pequeño número de empresas mitiga la manipulación sistémica riesgos y apoyos la diversidad de servicios con propuestas de valor únicas.

Una política de competencia sólida, estándares de interoperabilidad y derechos de portabilidad de datos evitan la captura monopolística de capacidades generativas de IA que limitan las alternativas. 

Una pluralidad de servicios con una innovación distintiva en torno a la ética empodera a los usuarios.

La inversión que respalda plataformas de interés público sin fines de lucro guiadas por el bienestar de los usuarios, y no solo por la maximización de ganancias, ofrece opciones adicionales. 

La búsqueda del pluralismo de la IA distribuido equitativamente crea controles y equilibrios que benefician a la sociedad.

Generar transparencia en torno a los medios sintéticos

A medida que la IA generativa gana la capacidad de producir medios sintéticos cada vez más convincentes, como los deepfakes, garantizar la transparencia sobre lo que es real y lo falso se vuelve fundamental. Sin políticas diligentes, los modelos generativos corren el riesgo de permitir un engaño masivo.

Estándares de divulgación obligatoria  

Una propuesta de política requiere etiquetar claramente los medios sintetizados con IA como tales antes de su distribución, de forma similar a las divulgaciones en torno a la publicidad. 

Esto evita intentos de hacer pasar contenido sintético como auténtico.

Algunos recomiendan poner marcas de agua en los archivos multimedia que indiquen la procedencia de la IA. 

Otros sugieren superposiciones requeridas de texto o voz que revelen verbalmente orígenes sintéticos durante la reproducción. Las normas deben aplicarse al uso comercial y político.

Las sanciones legales y las políticas de la plataforma exigirían el cumplimiento. 

En general, la divulgación obligatoria establece normas que previenen el engaño por omisión en torno a la autenticidad de los medios generativos.

Infraestructura de autenticación

Además, los avances en la infraestructura de autenticación pueden facilitar la verificación de la integridad de los medios a escala. 

Están surgiendo huellas dactilares de medios habilitadas por blockchain, sistemas de análisis forense y seguimiento de procedencia a través de canales de producción.

Estas tecnologías permiten a las plataformas, periodistas y grupos de vigilancia validar de manera eficiente las fuentes y la integridad de los medios en lugar de depender únicamente de las divulgaciones. 

Las bases de datos de huellas dactilares también ayudan a identificar medios manipulados que se difunden sin divulgación.

A medida que los modelos generativos se vuelven más sofisticados, una autenticación sólida que combine experiencia humana y técnica se vuelve esencial para combatir la desinformación a gran escala. 

Los estándares y plataformas que permitan una verificación eficiente deberían ampliar el acceso.

Debido a que las personas sufren daños cuando su semejanza se sintetiza en situaciones que nunca dieron su consentimiento, las políticas en torno al consentimiento informado también merecen consideración.

Algunos abogan por una legislación que garantice los derechos de las personas a rechazar el uso de sus datos y su imagen en modelos generativos. 

Se podrían requerir permisos de participación voluntaria para entrenar sistemas generativos con datos identificables.

Los derechos a revocar el consentimiento después del hecho, purgar datos de entrenamiento y cuestionar medios sintéticos no aprobados también pueden ayudar a equilibrar los riesgos de la IA generativa. 

Las empresas que desarrollan modelos tienen el deber ético de respetar la identidad y el consentimiento.

Prevenir el engaño generativo 

Más allá de la autenticación y las revelaciones, también es necesario reforzar las limitaciones que impiden el engaño franco y poco ético mediante el uso de IA generativa.

Las políticas legales y de plataforma deberían prohibir la circulación consciente de medios sintéticos demostrablemente falsos, especialmente dirigidos a políticos y elecciones. 

Los modelos generativos contradicen los valores democráticos fundamentales cuando se utilizan para engaño y fraude manifiestos.

Los estándares también deben elaborarse cuidadosamente para evitar un alcance desproporcionado que censure inadvertidamente la sátira, la parodia y el discurso protegido. 

Sin embargo, las pautas que mitigan la manipulación intencional ayudan a reforzar las normas.

Se requiere una colusión general entre empresas, legisladores y la sociedad civil para implementar políticas integrales contra los medios generativos no auténticos que socavan la confianza y el discurso públicos.

Guiar la IA con la supervisión del interés público

Dejar la gobernanza de las capacidades de IA generativa que avanzan rápidamente únicamente en manos de empresas privadas corre el riesgo de priorizar los incentivos comerciales sobre el bien público. La supervisión independiente es crucial.

Consejos asesores de expertos

Para guiar la IA generativa de manera responsable, las empresas líderes deberían convocar juntas asesoras de expertos que incluyan especialistas en ética, expertos en políticas, investigadores y defensores de los derechos civiles.

Estos grupos pueden evaluar capacidades emergentes, realizar revisiones de impacto, sugerir limitaciones, señalar daños potenciales y evaluar la alineación con los derechos humanos y los principios democráticos. Este insumo da forma a las políticas internas.

La revisión multidisciplinaria que aplica diversos lentes ayuda a abordar dimensiones técnicas y éticas complejas en los sistemas de IA generativa de manera crítica y completa. Los aportes externos refuerzan la rendición de cuentas.

Regulación gubernamental

Los gobiernos también tienen el deber de elaborar regulaciones que orienten y limiten la IA generativa en aras del interés público. La rendición de cuentas únicamente ante los accionistas es insuficiente.

Las leyes que exigen informes de transparencia, auditorías externas y revisiones de los impactos sociales de los algoritmos podrían proporcionar una supervisión saludable que fomente la prudencia y saque a relucir preocupaciones para el debate público.

Las políticas antimanipulación, las salvaguardias de los derechos de identidad, los requisitos de divulgación y los estándares de autenticación también garantizan que la IA generativa fortalezca la democracia y la dignidad humana. Será importante contar con regímenes regulatorios equilibrados.  

Normas y protocolos globales

Dado que los modelos generativos se extienden rápidamente por todo el mundo, también vale la pena buscar acuerdos multilaterales que articulen principios compartidos y prácticas prohibidas.

La comunidad internacional debería trabajar para fomentar normas en torno al consentimiento, la atribución, la veracidad, la no manipulación, la rendición de cuentas y la supervisión que proporcionen una brújula ética global. 

Las políticas nacionales divergentes permiten la explotación.

Si bien el consenso lleva tiempo, incluso los acuerdos imperfectos que articulan líneas rojas contra los usos maliciosos de la IA generativa y las mejores prácticas permiten avanzar hacia la responsabilidad colectiva. Sin colaboración, los riesgos aumentan.

El escrutinio público como antídoto 

En general, cultivar una cultura de transparencia, debate y crítica multidisciplinaria centrada en garantizar que la IA generativa funcione en beneficio de la sociedad proporciona un fuerte antídoto contra posibles daños.

Un intenso escrutinio público que aplica diversos lentes centrados en prevenir la desalineación con los derechos humanos y los principios democráticos ayuda a orientar estas poderosas tecnologías hacia la justicia, no hacia la opresión.

Los modelos de IA generativa construidos bajo la luz de un examen público con una ética proactiva en el diseño resultan mucho más confiables que los sistemas opacos optimizados para obtener ganancias e influencia sin control. 

La supervisión sana y la rendición de cuentas son importantes.

Preparar a las comunidades para los impactos económicos

A medida que la IA generativa automatiza muchas tareas creativas y funciones de producción de medios, la sociedad 

debe minimizar los impactos económicos adversos y la interrupción del empleo en los trabajadores desplazados.

Apoyo en la transición laboral 

Las empresas que adoptan IA generativa y reducen la demanda de roles humanos tienen la responsabilidad de financiar programas que ayuden a los trabajadores afectados en la transición a nuevas carreras a través de asociaciones de capacitación y colocación laboral.

Los paquetes de indemnizaciones, los estipendios de ajuste, el apoyo a la matrícula y el asesoramiento profesional ayudan a los trabajadores a no quedarse atrás a medida que el progreso técnico transforma las industrias. Las grandes empresas deberían contribuir proporcionalmente.

Fondos de transición cooperativa

La agrupación de fondos para el apoyo a la transición entre empresas en fondos cooperativos y específicos del sector democratiza los costos al tiempo que optimiza la eficiencia de los programas.

En lugar de cientos de iniciativas fragmentadas, los fondos industriales brindan de manera eficiente reentrenamiento a escala, búsqueda de empleo y financiamiento inicial empresarial para los trabajadores desplazados de todas las empresas. 

Los costos compartidos cultivan oportunidades compartidas.

Modelos de negocio alternativos

La creación de estructuras corporativas alternativas que compartan la propiedad y las ganancias con los trabajadores proporciona caminos adicionales hacia medios de vida inclusivos en medio de la automatización.

Los modelos que ponen la IA generativa al servicio de las cooperativas propiedad del personal generan ganancias económicas directamente para las personas y no solo para los accionistas externos. 

Esto potencia medios de vida sostenibles para más.

En general, las sociedades tienen el profundo deber de minimizar la perturbación económica de la IA generativa y fomentar oportunidades para las poblaciones desplazadas. Con cuidado, el progreso tecnológico levanta todos los barcos.

Aprovechar los beneficios de la IA generativa y al mismo tiempo evitar riesgos exige cuidado y sabiduría en la gobernanza. 

Pero si se hacen correctamente, los modelos generativos podrían desbloquear avances notables que elevan el espíritu humano.

¿Cómo cree que la sociedad debería equilibrar el fomento de la innovación en IA con salvaguardias sensatas contra el uso indebido? 

¿Qué papel deberían desempeñar los usuarios en la gestión ética de esta tecnología? Agradecemos sus perspectivas a continuación.

Escrito por Ashok Kumar
Director ejecutivo, fundador y director de marketing de Make An App Like. Soy escritor en OutlookIndia.com, KhaleejTimes, DeccanHerald. Contáctame para publicar tu contenido. Mi Perfil

Deje un comentario

Hasta la próxima: Los servicios de gestión de reseñas crean una aplicación como ¿Cuánto cuesta eliminar una reseña de Yelp?
Translate »