Nuestro compromiso con la IA | Lievant

Política de uso responsable de IA para Lievant

La Inteligencia Artificial (IA) es una herramienta cada vez más importante en el panorama del marketing, ya que ofrece, posibilidades sin precedentes para la creación de contenido y la participación del cliente.

Sin embargo, el gran poder conlleva una gran responsabilidad. Por lo tanto, esta política de uso de IA está diseñada para guiar a nuestro equipo en el uso responsable, transparente y ético de la IA en su trabajo.

El objetivo de esta política no es obstaculizar la creatividad o la innovación, sino más bien garantizar que nuestro uso de la IA se alinee con nuestro objetivo general, valores corporativos y respeta los derechos de nuestros clientes.

 

Nuestro compromiso para el uso responsable de la IA

 

Transparencia

Seremos transparentes sobre nuestro uso de la IA. Esto incluye reconocer cuando la IA se ha utilizado para crear o modificar contenido. Esto puede ser a través de una declaración general creada en nuestro sitio web y/o integrado en contratos con clientes.

Utilizamos IA para ayudar en el desarrollo de algunos contenidos en nuestra empresa. Para asegurar una clara y transparente comunicación capacitaremos a nuestros colaboradores para que siempre estén informados nuestros clientes y partners cuando sea utilizada la IA Para cualquier función.

 

Selección de herramientas:

Las siguientes herramientas de IA han sido aprobadas para su uso en nuestra empresa. NO utilizaremos ninguna herramienta fuera de los de esta lista o aprobados por escrito por nuestro equipo de seguridad informática y legal en dispositivos de la empresa o para realizar trabajos relacionados con la empresa.

  1. – ChatGPT
  2. – Canva PRO
  3. – Freepics
  4. – Photoshop & AI
  5. – Grammarly
  6. – Claude.ai
  7. – Read.ai
  8. – Capcut / Subtitles
  9. – Synthesia
  10. – Pixelcut
  11. – Leonardo.ai
  12. – Copilot
  13. – Rytr.me
  14. – Photoroom
  15. – GoBots

 

Responsabilidad

La responsabilidad no se puede subcontratar a una máquina. Recuerden siempre que los humanos somos responsable en última instancia de las acciones de la IA.  La IA es un asistente, no un sustituto del bien juicio. Nuestra política de empresa es que NUNCA debemos publicar o enviar algo que tenga imágenes o haya sido escrito íntegramente por IA sin desarrollo humano ni revisión de calidad y precisión.

Además, en caso de cualquier resultado negativo del contenido asistido por IA, debemos tomar responsabilidad y remediar según sea necesario.

La IA debería utilizarse para ayudar en la creación de contenidos, no para automatizarla por completo. Nos aseguramos de que Cada contenido que desarrollamos está formado y/o revisado por personas que tienen una comprensión de nuestra audiencia y las limitaciones de la IA.

 

Casos de uso que no utilizaremos IA.

Si bien hay muchos casos de uso positivos de la asistencia de IA en nuestro trabajo, existen tipos específicos de Trabajo en el que hemos decidido como empresa restringir el uso de la IA. No la utilizaremos en las siguientes situaciones:

  1. a) Una comprensión legal, ética o cultural, que requiere entender el contexto y los valores humanos.
  2. b) Gran sensibilidad, empatía, tacto y juicio humano.
  3. c) Una visión y un juicio humano.
  4. d) Manejo de data sensible ya puede aumentar los riesgos de privacidad y seguridad.
  5. e) Desarrollo de material donde el cliente quiere obtener IP (derechos de autor).

Incluimos aquí algunos ejemplos:

  1. Creatividad y Estrategia de Marca: La creación de campañas y estrategias de marca efectivas a menudo requiere una comprensión profunda y matizada de la cultura, el contexto y los valores humanos, lo que puede ser difícil de replicar para la IA.
  2. Manejo de Crisis y Relaciones Públicas: Las respuestas a situaciones de crisis o la gestión de relaciones públicas deben ser manejadas con gran sensibilidad y juicio humano para evitar malentendidos o empeorar la situación.
  3. Interacciones y Relaciones Humanas: La comunicación personalizada y empática con clientes y socios comerciales es esencial. La IA puede automatizar ciertas tareas, pero no puede reemplazar la empatía y el tacto humano necesarios en estas interacciones.
  4. Toma de Decisiones Estratégicas: Las decisiones estratégicas a largo plazo a menudo requieren una visión y un juicio humano que consideran factores más allá de los datos que la IA puede analizar.
  5. Protección de Datos Sensibles: La IA manejando datos personales y sensibles puede aumentar los riesgos de privacidad y seguridad. Es crucial que los datos sensibles sean manejados con especial cuidado por profesionales humanos.
  6. Desarrollo de Contenido Original: Aunque la IA puede ayudar a generar contenido, la creación de contenido verdaderamente original y auténtico a menudo requiere la creatividad y el toque humano.
  7. Ética y Cumplimiento Legal: Las decisiones que involucran aspectos éticos y legales deben ser supervisadas y gestionadas por humanos para garantizar que se cumplan todas las normativas y estándares éticos.

Utilizar la IA en estas áreas sin supervisión o intervención humana puede llevar a resultados contraproducentes y afectar negativamente la reputación y la efectividad de la agencia.

 

Forecast y data generados a partir de la IA.

Los sistemas de inteligencia artificial aprenden de los datos que reciben y, por lo tanto, pueden perpetuar sesgos involuntariamente que se encuentran en su material de capacitación. Muchos modelos de lenguaje tienen filtros para reducir el riesgo de sesgo o salidas dañosas, pero los filtros no son suficientes. Es nuestra responsabilidad garantizar que el contenido que los productos se revisen para detectar posibles sesgos y así desarrollar los que sean correctos.

 

Privacidad

Debemos proteger la privacidad de nuestros clientes. Vea nuestra lista de herramientas aprobadas con confiabilidad y las políticas de privacidad y no envíe datos de clientes a herramientas de inteligencia artificial. Además, debemos proteger la privacidad de nuestra propia propiedad intelectual (IP). Cumplir con la lista aprobada de herramientas

Lo anterior ayudará a salvaguardar ambos y garantizar que nuestros datos y nuestra propiedad intelectual no se utilicen para capacitar públicamente.

 

Seguridad

Los sistemas de inteligencia artificial pueden ser objetivos de ciberataques. Sólo utilizaremos la lista de apps aprobada por el equipo de Seguridad Informática de la empresa.

 

Consideraciones éticas

La IA no debe utilizarse para engañar o manipular a los clientes. Todo el contenido creado con IA debe ser ético y estar alineado con nuestros valores corporativos).  El contenido de IA debe pasar por un proceso de revisión para comprobar si hay sesgos, inexactitudes y/o otros riesgos.

 

Suplantación:

Es política de Lievant que los colaboradores no deben utilizar la IA para hacerse pasar por ninguna persona sin su permiso expreso. La IA puede permitirle crear “al estilo” de figuras públicas; como políticas.  No hacemos eso en nuestra empresa.

 

Capacitación constante

Todos los colaboradores involucrados en la creación de contenido con IA recibirán la formación adecuada. Esta cubrirá tanto los aspectos técnicos del uso de la IA como las consideraciones éticas descritas en esta política.

 


Documento actualizado el 12 de agosto de 2024, este documento se revisa por el área de TI, RH y Seguridad Informática cada 6 meses.