En agosto de 2025, Grammarly —la conocida herramienta de corrección y asistencia de escritura con decenas de millones de usuarios— lanzó una función llamada Expert Review. La propuesta era atractiva: por doce dólares mensuales, cualquier suscriptor podía subir un texto y recibir comentarios de edición atribuidos a figuras reconocidas del periodismo, la literatura y el mundo académico. Julia Angwin, periodista de investigación con veinticinco años de trayectoria en The New York Times, ProPublica y The Wall Street Journal, aparecía como una de esas “expertas”. También Stephen King, el astrofísico Neil deGrasse Tyson, la periodista tecnológica Kara Swisher o la excomisaria de la Federal Trade Commission Julie Brill. Ninguno de ellos había dado su consentimiento. Ninguno sabía que su nombre figuraba en el producto.

El 11 de marzo de 2026, Angwin presentó una demanda colectiva (class action) ante el tribunal federal del Distrito Sur de Nueva York contra Superhuman Platform, Inc., la empresa matriz de Grammarly (Angwin v. Superhuman Platform, Inc., No. 26 Civ. 02005-JGK, S.D.N.Y.). La acción no se ampara en el derecho de autor ni cuestiona el entrenamiento de modelos de IA con obras publicadas: se basa en el derecho de publicidad (right of publicity), una institución del Derecho estatal estadounidense que protege a toda persona frente a la explotación comercial no consentida de su nombre, imagen o identidad.
Es un caso que merece atención más allá de la anécdota tecnológica. Porque la pregunta de fondo —¿puede una empresa de IA utilizar el nombre y la reputación de un profesional para vender un servicio sin pedirle permiso amparándose en “el estilo de o inspirado por”?— no es exclusiva del common law norteamericano. Es una pregunta que el Derecho español lleva décadas respondiendo con herramientas propias, y que el legislador está actualizando en este mismo momento.
Cómo funcionaba Expert Review
Para entender la demanda hay que entender primero qué hacía exactamente la herramienta. Según el escrito de demanda y la cobertura periodística, el funcionamiento era el siguiente: cuando un usuario activaba Expert Review, la interfaz de Grammarly le informaba de que estaba “leyendo” su texto y “buscando expertos” para revisarlo. A continuación, la pantalla mostraba mensajes como “Aplicando ideas de Julia Angwin”, acompañados de una breve biografía que la identificaba como periodista de investigación especializada en privacidad digital. Junto a pasajes concretos del borrador, aparecían comentarios atribuidos al experto seleccionado —por ejemplo, “Lidera con lo personal”, “Afina la apertura” o “Simplifica la descripción técnica”— con una explicación más extensa accesible al hacer clic. Si el usuario aceptaba una sugerencia, Grammarly la etiquetaba como “inspirada por Julia Angwin”.
El diseño de la interfaz no era casual. La demanda sostiene que la arquitectura del producto estaba deliberadamente pensada para transmitir la impresión de que los expertos nombrados participaban en la revisión o, al menos, de que existía una vinculación directa entre ellos y los comentarios que aparecían en pantalla. Pero la realidad era otra: los comentarios eran generados por un sistema de IA que, según la propia Grammarly, se había entrenado con la obra pública de esas personas para imitar sus estilos y criterios editoriales. Ni Angwin ni los demás “expertos” fueron consultados, invitados a colaborar ni compensados económicamente. Angwin se enteró de que su nombre figuraba en el producto a través de un artículo periodístico, como ella misma ha explicado.
Y el problema no era solo de principio. Angwin revisó algunas de las sugerencias que la herramienta atribuía a su nombre y su reacción fue clara: los consejos editoriales eran malos. Complicaban frases que debían simplificarse y ofrecían orientaciones que ella no habría dado jamás. Dicho de otro modo, Grammarly no solo utilizaba su nombre sin permiso: lo asociaba a un trabajo de baja calidad que ella no controlaba y que podía dañar su reputación profesional.
Las bases jurídicas de la demanda
La acción colectiva articula cuatro causas de acción principales, todas fundadas en el Derecho estatal de Nueva York y California. La primera y más relevante es la violación del derecho de publicidad (right of publicity): el uso del nombre y la identidad profesional de los demandantes con fines comerciales sin su consentimiento. La segunda alegación se refiere a la vulneración del derecho de privacidad (right of privacy), por la apropiación de identidades personales para generar ingresos y dotar de apariencia humana a un servicio automatizado. La tercera invoca el falso respaldo (false endorsement): la demanda sostiene que Grammarly inducía a los usuarios a creer que Angwin y los demás expertos revisaban personalmente los textos o avalaban el producto, cuando esto nunca ocurrió. Por último, se alega enriquecimiento injusto (unjust enrichment): la empresa habría monetizado durante meses un servicio basado en la reputación ajena sin ofrecer compensación alguna.
La demanda solicita la certificación de una clase que incluya a todos los “expertos” cuyos nombres e identidades fueron utilizados en Expert Review sin consentimiento en cualquier plataforma operada por Superhuman —incluidas Grammarly Enterprise, Grammarly Business, Grammarly for Education y la propia aplicación de escritura—. También pide medidas cautelares que prohíban cualquier uso futuro de esos nombres sin autorización y una compensación económica de, al menos, cinco millones de dólares.
Conviene destacar lo que la demanda no es. No se trata de un litigio sobre derechos de autor. No cuestiona si Grammarly tenía derecho a entrenar sus modelos con artículos publicados, ni si las sugerencias generadas infringen la propiedad intelectual de los escritores. El argumento es distinto y, en cierto sentido, más elemental: lo que se impugna es el uso del nombre —de la identidad profesional— como reclamo comercial. Es una diferencia que tiene consecuencias procesales y sustantivas importantes: mientras los litigios de copyright en el ámbito de la IA se enfrentan a incertidumbres doctrinales considerables (la doctrina del fair use sigue en disputa), el derecho de publicidad tiene una tradición larga y consolidada en la jurisprudencia estadounidense.
El right of publicity: un derecho estatal con historia
El right of publicity es un conjunto de derechos de base estatal que protegen la identidad de una persona —nombre, imagen, voz, semejanza— frente a su uso comercial no autorizado. No existe una ley federal que lo regule de forma unificada: cada estado establece sus propias reglas a través de leyes específicas, jurisprudencia de common law o ambas. Aproximadamente veinticinco estados tienen estatutos específicos de protección, y unos treinta y ocho estados reconocen alguna forma de protección por una u otra vía.
Nueva York fue el primer estado en legislar sobre la materia, con una norma de 1903 que después evolucionó hasta las actuales secciones 50 y 51 de la Civil Rights Law. El concepto de right of publicity como categoría jurídica diferenciada fue articulado por primera vez en Haelan Laboratories, Inc. v. Topps Chewing Gum, Inc. (2d Cir. 1953). California, por su parte, ofrece una de las protecciones más amplias tanto a nivel estatutario —sección 3344 del Civil Code— como a través del common law, que permite reclamar incluso cuando no se utiliza directamente la imagen sino elementos que evocan la identidad de la persona. El caso clásico es White v. Samsung Electronics America, Inc. (9th Cir. 1992), donde un robot vestido como Vanna White fue considerado una apropiación de su identidad.
Lo relevante para el caso Angwin es que ambos estados coinciden en un requisito básico: la utilización del nombre o la identidad de una persona con fines comerciales exige consentimiento previo. Y ambos estados han actualizado recientemente su normativa para abordar específicamente los riesgos derivados de la inteligencia artificial. En octubre de 2025, California aprobó la Senate Bill 683, que modifica la sección 3344 del Civil Code para incluir expresamente las réplicas digitales generadas por IA en las definiciones de “voz” y “semejanza”, y amplía los remedios disponibles para los afectados, incluyendo la posibilidad de obtener órdenes judiciales de cesación en un plazo de dos días. Nueva York, por su parte, aprobó en diciembre de 2025 dos leyes complementarias: la SB 8420, que obliga a los anunciantes a revelar el uso de “intérpretes sintéticos” generados por IA en publicidad (con entrada en vigor en junio de 2026), y la SB 8391, que refuerza la protección post mortem frente al uso de réplicas digitales.
El caso Lehrman v. Lovo Inc. (S.D.N.Y., julio 2024) ofrece un precedente inmediato. En ese asunto, actores de doblaje demandaron a una plataforma que había utilizado grabaciones de sus voces para crear y comercializar clones vocales generados por IA sin autorización. El tribunal permitió que las reclamaciones basadas en la Civil Rights Law de Nueva York, en las normas de protección del consumidor y en la teoría contractual prosperaran hasta la fase de juicio, confirmando que la ley estatal cubre el uso no autorizado de la voz de una persona, incluidas las réplicas digitales creadas por IA, y que cada nueva venta de un clon vocal constituye una nueva violación que renueva el plazo de prescripción.
La respuesta de Grammarly y el contexto empresarial
La reacción de la empresa se produjo en dos tiempos. Cuando los primeros expertos afectados comenzaron a protestar públicamente —entre ellos el periodista tecnológico Casey Newton, que descubrió su propio nombre en la herramienta y lo publicó en su newsletter Platformer—, Grammarly ofreció inicialmente la posibilidad de “darse de baja” enviando un correo electrónico. La solución resultaba irónica: pedir que personas que nunca se habían dado de alta solicitasen ser excluidas de un programa en el que no habían consentido participar.
El 11 de marzo de 2026 —el mismo día en que Angwin presentó la demanda—, el CEO de Superhuman, Shishir Mehrotra, publicó un comunicado en LinkedIn anunciando la desactivación de Expert Review. Reconoció que la función “no había acertado” en su diseño para expertos y usuarios, y señaló que la herramienta sería rediseñada para dar a los profesionales “un control real sobre cómo quieren ser representados, o no representados en absoluto”. Pero al mismo tiempo, Mehrotra defendió la idea general del producto y anunció que Superhuman consideraba las reclamaciones jurídicas “carentes de mérito” y las combatiría judicialmente.
La doble postura —disculpa pública combinada con defensa jurídica agresiva— es habitual en litigios tecnológicos de alto perfil. Pero en este caso genera una tensión particular: si la empresa reconoce que la función “no acertó” y necesita ser rediseñada con “control real” de los expertos, ¿es coherente sostener al mismo tiempo que no se violaron derechos? El argumento de defensa de Grammarly probablemente se centrará en que Expert Review incluía un disclaimer en su documentación indicando que los expertos no estaban afiliados al producto ni lo respaldaban. Pero la jurisprudencia sobre false endorsement suele evaluar la impresión global del consumidor, no solo el contenido de las letras pequeñas. Y la interfaz de Expert Review —con biografías, nombres propios y mensajes como “aplicando ideas de Julia Angwin”— parecía diseñada precisamente para crear esa impresión de participación activa.
En las horas posteriores a la presentación de la demanda, el despacho Peter Romer-Friedman Law, que representa a Angwin, informó de que entre cuarenta y cincuenta personas se habían puesto en contacto para unirse a la acción como posibles miembros de la clase afectada. Dado que la herramienta utilizó centenares de nombres, el potencial de expansión del litigio es considerable.
Implicaciones para la industria de la IA
El caso Angwin no se produce en el vacío. Se inscribe en un debate más amplio sobre los límites que el Derecho impone a las empresas de inteligencia artificial cuando sus productos invocan, replican o simulan la identidad de personas reales. Pero, a diferencia de otros litigios de la era de la IA generativa —centrados principalmente en copyright—, esta demanda se apoya en un terreno jurídico más estable.
La pregunta que plantea tiene una formulación sencilla: ¿puede un servicio de IA comercializar funciones que se presentan “bajo el nombre” de profesionales reales sin su autorización? Expert Review no es el único producto que opera en esta zona. Numerosos chatbots y herramientas de escritura ofrecen modos tipo “escribe como X” o prometen que un agente de IA “inspirado en” determinado autor revisará tu trabajo. Si el tribunal certifica la clase y la demanda prospera, el precedente podría obligar a toda la industria a replantear estas funciones.
En el plano legislativo federal, la propuesta más relevante es la NO FAKES Act (Nurture Originals, Foster Art, and Keep Entertainment Safe Act), reintroducida en abril de 2025 con apoyo bipartidista. El proyecto crearía un derecho federal de publicidad específico para réplicas digitales —definidas como representaciones electrónicas, generadas por ordenador, de alta fidelidad, fácilmente identificables como la voz o la apariencia visual de un individuo—. Sin embargo, como ha señalado la propia Angwin en un artículo de opinión publicado en The New York Times, la NO FAKES Act tiene una limitación significativa para un caso como el suyo: se centra en réplicas visuales y auditivas (deepfakes audiovisuales), pero no cubre necesariamente el uso de nombres en servicios basados en texto, que es exactamente lo que hacía Expert Review. Esta brecha refuerza la dependencia del mosaico de leyes estatales y subraya la necesidad de un marco más comprensivo.
Lectura desde el Derecho español: la propia imagen y el anteproyecto de 2026
El Derecho estadounidense y el español abordan la protección de la identidad desde tradiciones jurídicas distintas, pero convergen en un principio compartido: nadie debe poder explotar comercialmente el nombre o la imagen de otra persona sin su consentimiento. En España, esta protección tiene rango constitucional. El artículo 18.1 de la Constitución consagra como derechos fundamentales el honor, la intimidad personal y familiar y la propia imagen. Su desarrollo legislativo se encuentra en la Ley Orgánica 1/1982, de 5 de mayo, que lleva más de cuatro décadas configurando la tutela civil frente a intromisiones ilegítimas en estos derechos.
El artículo 7.6 de la LO 1/1982 tipifica como intromisión ilegítima “la utilización del nombre, de la voz o de la imagen de una persona para fines publicitarios, comerciales o de naturaleza análoga”. La norma exige consentimiento expreso (art. 2.2), que además es revocable en todo momento (art. 2.3), y declara estos derechos irrenunciables, inalienables e imprescriptibles (art. 1.3). Si trasladamos los hechos del caso Angwin al marco jurídico español, la subsunción es razonablemente clara: una empresa que utiliza el nombre de un profesional en un servicio comercial de IA —presentándolo como la persona que “revisa” o “inspira” las sugerencias de edición— sin haber obtenido su consentimiento expreso estaría incurriendo, con alta probabilidad, en una intromisión ilegítima en su derecho a la propia imagen con dimensión patrimonial.
El Tribunal Supremo ha consolidado esta interpretación. La STS de 16 de junio de 2022 declaró, por ejemplo, la intromisión ilegítima en el derecho a la propia imagen por el uso del nombre y la imagen de un artista fallecido con fines comerciales —en aquel caso, la promoción de un festival—, sin consentimiento de sus herederos. La jurisprudencia constitucional, por su parte, ha subrayado que el consentimiento para un uso específico no se extiende a usos distintos: la autorización para la captación de una imagen no cubre su publicación, ni el hecho de compartir una fotografía en redes sociales equivale a una cesión genérica para cualquier finalidad.
Pero la LO 1/1982 fue concebida para un entorno comunicativo y tecnológico radicalmente distinto al actual. Y el legislador español ha decidido actualizarla. El 13 de enero de 2026, el Consejo de Ministros aprobó el Anteproyecto de Ley Orgánica de protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen, un texto que sustituirá la norma vigente y que incorpora por primera vez dos supuestos diferenciados de intromisión ilegítima adaptados a la era digital: por un lado, la utilización o difusión de imagen o voz creadas, simuladas o manipuladas con una apariencia extremadamente realista (lo que alinea la norma con la terminología del Reglamento europeo de IA y su concepto de “ultrasuplantación” o deepfake); por otro, la utilización del nombre, la voz o la imagen —reales o tecnológicamente simuladas— con fines publicitarios, comerciales o análogos sin autorización.
La reforma resulta especialmente pertinente a la luz del caso Grammarly. Si Expert Review hubiese operado —o llegase a operar— en el mercado español utilizando nombres de profesionales españoles, el anteproyecto ofrecería herramientas específicas de tutela. Pero incluso bajo la normativa vigente, la protección existe: la LO 1/1982 ya cubre el uso del nombre con fines comerciales sin consentimiento. Lo que el anteproyecto añade es una tipificación más precisa de las conductas vinculadas a la IA y una articulación procesal más ágil, incluyendo la posibilidad de solicitar como medida cautelar la retirada de imágenes o voces —reales, manipuladas o simuladas— cuando puedan afectar al honor, la intimidad o la propia imagen.
Hay, sin embargo, diferencias estructurales entre ambos sistemas que conviene no pasar por alto. El right of publicity estadounidense tiene una configuración esencialmente patrimonial: protege el valor económico de la identidad como un activo comercializable. En España, el derecho a la propia imagen es un derecho de la personalidad con doble vertiente: constitucional (vinculada a la dignidad) y patrimonial (vinculada a la explotación económica). Esta diferencia tiene consecuencias prácticas relevantes. La más importante es que en España la cesión del derecho de imagen no equivale a su renuncia, y el consentimiento debe ser siempre específico en cuanto a finalidad, alcance, soporte y duración y siempre revocable -con las consecuencias que resulten en cada caso-. Una cláusula contractual genérica o ambigua no bastaría para cubrir un uso como el de Expert Review.
Un litigio sobre identidad, no sobre algoritmos
La prensa tecnológica anglosajona ha tratado el caso Angwin como un test case para la ética de la IA generativa. Y lo es, pero quizá no del modo en que se suele enfocar el debate. No estamos ante una discusión sobre si la IA puede entrenar con datos públicos, ni sobre si los modelos de lenguaje generan obras derivadas que infringen derechos de autor. Estamos ante algo más directo: una empresa utilizó el nombre y la reputación de profesionales reales como eje comercial de un producto de pago, sin pedirles permiso y sin pagarles.
El abogado de Angwin, Peter Romer-Friedman, ha resumido la cuestión con claridad: “La ley lleva décadas siendo clara en esto. Ya seas famoso o completamente desconocido, tienes derecho a que las empresas no exploten tu nombre o tu identidad para su beneficio comercial”. La formulación es deliberadamente antigua —el right of publicity de Nueva York tiene más de un siglo— porque la clave del caso no es la novedad tecnológica, sino la aplicación de principios consolidados a una conducta nueva.
Esa misma lógica es la que inspira el anteproyecto español: no se trata de inventar derechos nuevos, sino de garantizar que los existentes funcionen en un entorno donde la IA puede poner palabras en tu boca, sugerencias en tu nombre y credenciales profesionales en un producto que no controlas. El Derecho civil de ambos lados del Atlántico comparte esa premisa. La diferencia está en la vía: en Estados Unidos, una demanda colectiva millonaria; en España, un anteproyecto de ley orgánica que se alinea con el Reglamento europeo de IA y actualiza las herramientas procesales. El destino de la acción de Angwin —certificación de la clase, eventual sentencia o acuerdo— marcará el tono para la industria norteamericana. Pero con independencia de su resultado procesal, la cuestión de fondo ya tiene respuesta en la mayoría de ordenamientos jurídicos occidentales: el nombre de una persona no es un recurso gratuito para entrenar productos de IA.
SUBSTACK