Coder Lifestyle
Estilo de vida de un programador remoto
Coder Lifestyle
Night Shade: Protegiendo el Arte Digital y Resistiendo los Desafíos Empresariales
¿Qué pasaría si te dijéramos que existe una herramienta que puede proteger tus imágenes de la malintencionada inteligencia artificial? En este fascinante episodio, desvelamos la revolucionaria herramienta Night Shade que está transformando la forma en que los artistas protegen sus obras en el mundo digital. Abordamos cómo Night Shade envenena los datos de entrenamiento de los modelos de IA, haciéndolas inútiles y cómo esto contribuye a fortalecer los derechos de autor. Además, discutimos el potencial de esta herramienta para gigantes de la industria como Marvel y Disney.
De la protección de imágenes a la resistencia en la arena empresarial. Exploramos el arduo camino de la auditoría de Raymond y cómo se encuentra frente a los obstáculos como el terrorismo y las limitaciones de crecimiento. Pero aquí hay un giro: la resistencia es la clave para vencer estos desafíos. Acentuamos la importancia de resistir y aceptar la resistencia como parte esencial del viaje. Este episodio está cargado de percepciones valiosas y perspicaces, ¡no te lo puedes perder!
Bienvenidos a Coder Lifestyle, el podcast que le da vida al desarrollo de software. Cada semana, nos sumergimos en conversaciones fascinantes con expertos de la industria, compartiendo sus experiencias y transformándolas en aprendizajes para todos nosotros. ¿Estás listo para una nueva perspectiva sobre el mundo de IT? Vamos a sumergirnos.
Eso fue todo por hoy, dejanos tus comentario o preguntas en nuestras redes, los links los puedes encontrar en la descripción
Gracias por escucharnos y nos vemos en el próximo episodio!
Recuerden escribir sus comentario y sugerencias a contacto@coderlifestyle.net donde les estaremos respondiendo a sus inquietudes.
disponible en las plataformas de audio🎧 @spotifypodcasts #applepodcasts #googlepodcasts (Link en la bio de @coder_life_style 🔝)
Síguenos por twitter en @coder_lifestyle o en instagram por @coder_life_style. Si deseas apoyarnos recuerda compartir el podcast con tu amigos.
Pueden visitarnos en https://www.coderlifestyle.net/
Bien, ahora pasamos a un nuevo tectular. Aquí vamos a hablar de una nueva herramienta que permite a los artistas agregar cambios invisibles a los píxeles de sus artes antes de subirlo en línea, de modo que, si se raspa en conjunto, de tal manera de evitar que se utilicen sus imágenes para entrenar a las inteligencias artificiales. Esta herramienta es llamada Night Shade y está destinada como una forma de luchar contra las compañías de inteligencia artificial que utilizan el trabajo de los artistas para entrenar sus modelos sin el permiso del creador, Básicamente usarlas para envenenar estos datos de entrenamiento para dañar las futuras iteraciones de los modelos de inteligencia artificial generadores de imágenes tales como Dalí, Mid Journey, Stable Diffusion y voler inútiles algunas de sus salidas. Por ejemplo, los perros se pueden convertir en gatos, los autos se convierten en vacas y así sucesivamente. El MIT Technology Review obtuvo una vista previa exclusiva de la investigación, que ha sido sometida a revisión por pares en conferencias de seguridad informáticas en Eugenics. Qué te parece esto?
Speaker 2:Pues me parece algo álido. Siempre hemos hablado del tema del copyright. Es un tema clave allí, ¿verdad? Y lo que estamos buscando es de obviamente protegerse. Para eso habría que ver cómo se utiliza Night Shade. Pero básicamente no me parece que esté mal que protejas tu propiedad electoral. Yo estoy de acuerdo. Me parece clever que sea de esta forma, en que de alguna manera envenena esa data de entrenamiento, porque es algo que tú decides agregarle a tu imagen. Si yo dibujo algo y quiero que sea de Domingo Público, no le pongo Night Shade. Si hago algo por lo que yo estoy cobrando, ¿verdad?
Speaker 2:Eso no solo va a servir a los pequeños creadores de contenido. Eso va a funcionar a un Marvel, a un Disney, a un VEDA, porque van a poder meter eso dentro de sus propios productos que ya están siendo utilizados. Todavía hemos visto el meme este de dibujar vainas en el estilo de Pixar, ¿verdad? Sí, hay varios, Entonces eso le va a servir a todo el mundo para que, precisamente listo, genera lo que quieras, pero genera lo usando contenido que sea de Domingo Público. Imagino que esa no es la definición de final que van a utilizar.
Speaker 1:Sí, esto es verdad realmente y porque lo hemos hablado anteriormente. Es decir aquí no es como de repente o de escribir un libro. Lo que habíamos dicho antes es decir el hecho de la propiedad de derecho. Doctor, con respecto a lo que he llamado creativo, eso lo hablamos anteriormente y yo pienso que está bien. Si tú tienes tu marca de cómo tú haces un dibujo, cómo lo haces, pues deberías protegerlo. No, cualquiera debería poder utilizarlo, aunque, como lo que dijo yo en las grabaciones pasadas, como que está el meme que están utilizando con la forma de Disney para hacer cualquier cantidad de cosas, si debería protegerse. Y también habíamos hablado que bueno, en términos de artistas o cosas de arte. Con respecto a cosas de tecnología, pues, hay unas líneas bastante finas en el sentido de que bueno, si yo protejo esto, entonces tampoco estoy dando cabida a que se pueda evolucionar. Entonces, pero si está, estoy de acuerdo con que los artistas protejan su obra y que next shade es parte de la herramienta. También, en el artículo aquí se dice que compañías como PNEI, meta, google y Stability AI enfrentan serie de demandas precisamente por esto, dado que el material con derecho a autor han utilizado sus modelos con esta información, que fueron utilizadas sin el consentimiento de estas personas. Entonces, sí, es algo que va a ser ampliamente utilizado a futuro por los artistas y es bueno. Parece que es bueno.
Speaker 1:Adicionalmente, dice que el equipo tiene la intención de integrar next shade en glaze y los artistas pueden elegir si quieren utilizar la herramienta de envenenamiento de datos o no. El equipo también está haciendo que nice shade sea de código abierto. Eso quiere decir que muy probablemente va a ser mucho más poderoso a futuro de lo que es ahorita, lo que permitirá a otro jugar con ella y crear sus propias versiones. Cuantas más personas lo usen y hagan sus propias versiones de él, más poderosa se vuelve la herramienta. Dice Xiao, que Xiao es uno de las personas que, si no me equivoco, fue parte del desarrollo de next shade. Comienzas a entrenar las imágenes con cualquier imagen que tenga next shade aplicado. Entonces, en el momento que tú le digas, por ejemplo a stability fusion o cualquiera de estas generadoras imagen, quiere un perro? pues te va a disfuele algo totalmente distinto debido a que se ha corrompidos el entrenamiento, lo cual es lo así interesante.
Speaker 2:Por lo que pasa es que si no dañas el modelo, cualquiera lo puede utilizar igual si Si. Claro, la alerta. Te podrías demandar porque bueno, yo te avise y bueno me escuchaste, pero la manera real de capaz, un poco drástica, llegará a la ya que supera. Eso también va a ser una guerra de inteligencia artificial?
Speaker 1:Si claro.
Speaker 2:Si, porque de hecho ya, bueno, por lo menos eso me comentó alguien estaban entrenando inteligencia artificiales para que pudieran detectar si un texto había sido generado por otra inteligencia artificial. Entonces y te decía tú tienes un tanto porcentaje de que lo haya hecho en el entrenamiento artificial? Si al final va a ser eso o sea, alguien va a aprender y pero por eso yo digo es preferible dañar el modelo y te aseguras de que estás solucionando el problema a sólo una alerta. Una alerta sería algo que yo simplemente ignoro. Es como cuando las personas que se descargan cosas es para el bay, tú sabes que está mal y ahí dice esto puede ser contenido copyrighted, pero tú igual te lo descargas. Bueno, las personas que en el caso hipotético de la gente que se descarga esas cosas, vale Que no somos ninguno de nosotros. Si estamos aquí, entonces dañándolo es la manera de que en verdad lo evitas. Por eso me parece que es extremista. Pero bueno, terrorismo, terrorismo, el inteligencia artificial. Que más Eso hemos llegado.
Speaker 1:Le llamaría la guerra de la GIA, ¿no?
Speaker 2:La guerra de legidades. Eso pasa a Cyberpunk.
Speaker 1:Ajá en facto.
Speaker 2:Lo que aprecia interesante es que cambiando las dos, tanto Glacier como Nightshade, lo que hace es cambiar algunos pixels de la imagen que son imperceptibles para uno como ser humano. Pero a la vuelve loca, ¿no?
Speaker 1:Eso es interesante A ese punto.
Speaker 2:Llegar a descubrir eso, ¿no? Y lo otro que estaba pensando es bueno, al final, si el prom tú le dices toque y te pone un dragón, al final habrá maneras de, o sea lo que tienes, que tú cambiiertos prom para que generen el resultado esperado. No solo que sería como un tema todo.
Speaker 1:Sí pero realmente estaría agregando más pasos para trasladar el dibujo Exacto. Entonces eso no estás obteniendo el objetivo juntas Piedro el propósito, entonces proteger los modelos actuales antes de entrenarlos de nuevo.
Speaker 2:Sí, pues eso es parte del MLEOps, ¿no? O sea, tú no vas a reentrenar un modelo y lo vas a publicar de una vez MLEOps para todos. Es como el proceso que viene detrás de entrenar estos modelos y ponerlos operativos al público. ¿no, Entonces? y de hecho una parte de MLEOps es que tú versionas la data, ¿no? O sea entonces, ¿qué va a pasar? Tienes tus set de datos de preglace pre mid journey, pre night shift perdón que es el estable y te mantendrás ahí mientras tratas de ir limpiando los que estén envenenados en las próximas versiones y seguirás reentrenando allí. Retrasas el trabajo de todos, o sea, retrasas el avance, perdón estos modelos, pero no es que lo vas a neutralizar porque, como te digo, vas a tener tu foto preglace, donde tendrás fotos que, si te funcionan y seguirás usando esas. Entonces esto no va a matar a mid journey. Lo que va a hacer es o estos modelos generativos, pero sí los va a retrasar nos lo va a hold back allí?
Speaker 1:Claro sí, total, total. Por último, aquí dicen que los investigadores probaron el ataque en los últimos modelos de stable diffusion y en un modelo de inteligencia artificial que entrenaron ellos mismos desde cero. Cuando alimentaron a stable diffusion con solo 50 imágenes envenenadas de perros y luego indicaron que crearán imágenes de perros, la salida comenzó a verse rara criaturas con demasiadas extremidades, caras caricaturescas. Con 300 muestras envenenadas, un atacante puede manipular stable diffusion Entonces?
Speaker 2:Pues esa época de Dali, que Dali daba puras imágenes así horroríficas.
Speaker 1:Eso era como que Me parece una buena época.
Speaker 2:A mí no me molestaría mantenerme en esa época donde las imágenes eran todas absurdas pero tú te reías ahora. Eran terroríficas, eran raras pero entretenidas que ahora que te dan exactamente lo que tú quieres. No era más divertido cuando era inestable diffusion como hice. Esa época era buena.
Speaker 1:Claro, tienen que aprender por error de la vida misma. Ah bueno, hablando de Dali, aquí un poquito, chai GPT agregó la opción de poder generar imágenes directamente de la edad plataforma Y la cual está utilizando para generar las imágenes del libro que estoy creando. Y están chabras, están muy cool, están muy cool. Y lo bueno de eso es que cuando tú le dices que quiero generar imágenes de tal persona, pues Dali dice mira, sabes que no va a ser, entonces está bien, y las imágenes que generan son imágenes muy bonitas, tú les puedes indicar, Está muy interesante.
Speaker 2:Dile hazme una imagen muy bonita. Pero que le das el párrafo y le dices ahora pintame esta imagen.
Speaker 1:Sí, lo que hice fue que agarré párrafos del libro y basado en un proceso previo. Ahora lo que le lanzo es el párrafo y él me dice bueno, vas a en el párrafo y los puntos importantes que estoy viendo aquí, estas son las imágenes que te voy a generar. Yo las veo, les digo de repente me agrada. O le digo que me haga una generación diferente. Y las hace, Esa es mi proceso, Está bien.
Speaker 2:Está auditada por Raymond, entonces está va a estar bien.
Speaker 1:Bueno, para finalizar esta parte de titular, que Moraleja.
Speaker 2:Terrorismo, no mentiras, esto no va a parar. Esa Va a limitar su crecimiento? sí, porque no va a poder meter nueva data, pero la data que tiene es suficiente para hacer lo que necesiten. Ok, sí, y nada Y vale. Resistamos, la resistamos.
Speaker 1:Resistencia Acepta. Acepta el destino.