Desarrolladores de Github Inconformes con Copilot
Un grupo de desarrolladores que colaboran en Github indican que las sugerencias de Copilot (MS OpenIA) parecen haber sido tomadas como copiadas del sitio.
Microsoft indica que su producto "Copilot" ha sido entrenado utilizando miles de millones de líneas de código, convirtiendo lenguaje natural en líneas de código y código sugerido.
Aquí es donde comienza la disputa. Una de las funciones de Copilo a la hora de programar en MS Visual Studio es sugerir código al desarrollador en base a lo que se está ingresando.
Según lo que sugieren los posibles demandantes, compuesto por grupos de desarrolladores de código abierto, y su abogado Matthew Butterick, las sugerencias que se realiza "Copilot" están basadas en el código que miles de desarrolladores han subido a github.com (adquirida por Microsoft en 2018).
Mientras que Microsoft, a través de OpenAI indicó que el 99% de las sugerencias no coinciden con los datos de entrenamiento (los desarrolladores que demandan).
“Analysis has shown that, even in this early stage of development, the vast majority of output (>99%) does not match training data”
@Tim Davis comparando su código con el sugerido por "Copilot"
@github copilot, with "public code" blocked, emits large chunks of my copyrighted code, with no attribution, no LGPL license. For example, the simple prompt "sparse matrix transpose, cs_" produces my cs_transpose in CSparse. My code on left, github on right. Not OK. pic.twitter.com/sqpOThi8nf
— Tim Davis (@DocSparse) October 16, 2022
En el sitio web https://githubcopilotinvestigation.com/ el abogado (y desarrollador) Matthew Butterick menciona los motivos por los que continuará intentando establecer una demanda legal contra Microsoft y añade que actualmente se encuentra haciendo equipo con Joseph Saveri Law Firm para investigar el caso.
Sin duda, de proceder, este caso sentaría un precedente de como se debe regular la AI.