NewsWorld
PredictionsDigestsScorecardTimelinesArticles
NewsWorld
HomePredictionsDigestsScorecardTimelinesArticlesWorldTechnologyPoliticsBusiness
AI-powered predictive news aggregation© 2026 NewsWorld. All rights reserved.
Trending
MilitaryAnnounceMajorTradeTariffMarketIranChinaStrikeCourtTrumpLegalPressureTargetPricesFebruaryNuclearMarchLaborHongKongTechSafetyTensions
MilitaryAnnounceMajorTradeTariffMarketIranChinaStrikeCourtTrumpLegalPressureTargetPricesFebruaryNuclearMarchLaborHongKongTechSafetyTensions
All Articles
Anthropic mete 20 millones en política y sube la tensión con OpenAI por la regulación de la IA
wwwhatsnew.com
Published 7 days ago

Anthropic mete 20 millones en política y sube la tensión con OpenAI por la regulación de la IA

wwwhatsnew.com · Feb 15, 2026 · Collected from GDELT

Summary

Published: 20260215T020000Z

Full Article

Hasta hace poco, la rivalidad entre Anthropic y OpenAI se medía en benchmarks, nuevos modelos y funciones para usuarios. Esta semana el pulso se trasladó a un terreno mucho más terrenal: el dinero electoral. La creadora de Claude anunció una aportación de 20 millones de dólares a Public First Action, una organización política que pretende impulsar candidatos favorables a imponer límites y reglas más claras al sector.La noticia encaja con un cambio de época: la inteligencia artificial ya no es solo una cuestión de producto o de investigación, sino un asunto que toca empleo, educación, seguridad nacional, ciberseguridad y protección de menores. Cuando una tecnología empieza a rozar “casi todo” en la vida pública, el debate regulatorio se vuelve un partido con grada, árbitro y, como estamos viendo, patrocinadores.Qué ha anunciado Anthropic y qué quiere conseguirEl movimiento es directo: 20 millones para reforzar una estructura de influencia electoral que apoye una agenda de “guardarraíles” para la IA. Reuters detalla que el dinero va a Public First Action, un grupo que se opone a esfuerzos federales para frenar o neutralizar leyes estatales sobre IA, y que ya tiene nombres en el radar, como la senadora Marsha Blackburn, que compite por la gobernación de Tennessee.En su propio comunicado, Anthropic argumenta que no quiere quedarse al margen mientras se escriben las reglas del juego. La compañía plantea que faltan normas federales claras y que la adopción de la IA está yendo más rápido que la capacidad política para supervisarla; cita sondeos según los cuales una mayoría de estadounidenses cree que el gobierno no está haciendo lo suficiente para regular su uso.Para entender el gesto, sirve una metáfora cotidiana: si la IA fuera un coche cada vez más potente, el debate ya no sería si acelera bien, sino quién pone los límites de velocidad, dónde se instalan los guardarraíles y qué sanciones hay cuando alguien se salta un semáforo. Anthropic está diciendo que prefiere carreteras con señalización clara, aunque eso implique inspecciones más estrictas para todos, incluida ella.Public First Action y el “parche” regulatorio entre estados y WashingtonLa fractura de fondo es el clásico choque entre regulación estatal y marco federal. Según Reuters y la prensa estadounidense, el grupo respaldado por Anthropic busca defender la capacidad de los estados para legislar sobre IA, especialmente si a nivel federal no hay un estándar robusto que ofrezca garantías equivalentes o superiores.Aquí aparece una tensión real para empresas y usuarios. Para una compañía, un mapa de normas distintas por estado se parece a intentar vender el mismo electrodoméstico con 50 manuales diferentes: caro, lento y lleno de riesgos. Para consumidores y administraciones locales, en cambio, ese “parche” puede ser la única forma de actuar cuando Washington no llega o no se pone de acuerdo. La posición de Anthropic intenta ocupar un punto intermedio: quiere un marco federal, pero no a costa de desactivar por completo la vía estatal mientras ese marco no exista o no sea exigente.El bando contrario: Leading the Future y el músculo financiero proindustriaEl anuncio de Anthropic no ocurre en el vacío. Public First Action nace explícitamente como contrapeso de Leading the Future, una red de super PACs asociada a figuras de la industria que promueven una regulación más ligera. Reuters cifra su recaudación en 125 millones de dólares desde su creación en agosto de 2025.En el lado de OpenAI, el caso más llamativo es el de Greg Brockman, presidente y cofundador, convertido en gran donante político. WIRED informa de aportaciones millonarias a un super PAC pro-Trump y al propio Leading the Future, con promesas de seguir ampliando el compromiso financiero durante 2026.Visto desde fuera, el patrón recuerda a dos empresas compitiendo por el mejor escaparate en la calle más transitada: una pelea por visibilidad, solo que el escaparate aquí son escaños, comités legislativos y el texto de futuras leyes. El riesgo es evidente: cuando el debate se financia a golpe de chequera, la percepción pública puede girar hacia la idea de que las reglas se escriben para quien más paga, no para quien más razón tiene.Dinero, opacidad y la etiqueta de “dinero oscuro”El detalle técnico importa porque condiciona la transparencia. Anthropic explica que Public First Action es una 501(c)(4), una figura de “bienestar social” que puede participar en actividad política y recaudación. En Estados Unidos, este tipo de entidades se asocia a menudo al fenómeno del dinero oscuro: gasto político en el que el origen del dinero puede quedar oculto al gran público, incluso si existen obligaciones de reporte en determinados supuestos. Organizaciones de vigilancia y análisis sobre financiación electoral describen cómo estos vehículos permiten influir sin revelar claramente quién está detrás de cada dólar.Los super PACs, por su parte, pueden aceptar contribuciones ilimitadas para gasto independiente, y están sujetos a reglas federales específicas. La Comisión Electoral Federal explica el marco básico de estas entidades y sus límites en materia de fuentes de financiación permitidas.En términos prácticos, para la ciudadanía esto puede sentirse como ver anuncios políticos de “una plataforma por el futuro” sin saber quién ha pagado el megáfono. En tecnología lo llamaríamos falta de “trazabilidad”: sabes que el mensaje existe, pero no puedes seguir el rastro hasta su origen con facilidad.La disputa Anthropic–OpenAI como espejo de dos filosofías de regulaciónEl choque también es ideológico. Anthropic se fundó con una narrativa centrada en seguridad, control de riesgos y límites claros para modelos avanzados, y ha defendido públicamente que ciertas amenazas —como usos maliciosos en biología o ciberataques— requieren políticas específicas. OpenAI, en cambio, lleva tiempo insistiendo en la necesidad de acelerar la innovación y evitar trabas que, desde su óptica, podrían frenar la competitividad de Estados Unidos y favorecer a rivales internacionales; el entorno político actual parece más receptivo a esa visión procrecimiento, según describen medios como WIRED al analizar la relación entre líderes de la industria y la administración Trump en su segundo mandato.La gran ironía es que ambos bandos hablan del “interés público”, solo que priorizan riesgos distintos. Uno se preocupa por el “freno” porque ve una pendiente peligrosa; el otro teme que frenar demasiado haga que el coche se quede atrás en la carrera global. El problema llega cuando ese desacuerdo se traduce en campañas agresivas, etiquetas simplificadoras y leyes hechas con prisas, justo lo contrario de lo que pediría una tecnología compleja.Qué significa para usuarios, empresas y el mercado de la IAQue las grandes firmas de IA entren de lleno en la política tiene efectos colaterales. Para las empresas pequeñas, puede elevar la barrera de entrada si la regulación termina diseñada con el “tamaño” de los gigantes en mente. Para usuarios y consumidores, puede traer algo positivo si se aprueban obligaciones de transparencia, auditorías o responsabilidades claras cuando un sistema falla y causa daño. Para gobiernos estatales y locales, abre la puerta a recursos e influencia externa en debates que, hasta ahora, eran más técnicos que electorales.La pregunta de fondo es quién define el estándar de “seguridad razonable” y con qué mecanismos de control. Si el resultado es un marco que exige explicar mejor cómo se entrenan modelos, cómo se evalúan riesgos y qué salvaguardas existen, el mercado ganará previsibilidad. Si el resultado es una guerra de anuncios y contraanuncios, con normas que cambian según el color político, la IA acabará pareciéndose a un electrodoméstico con instrucciones distintas cada temporada: confuso para quien lo usa, caro para quien lo fabrica y frustrante para quien intenta supervisarlo.


Share this story

Read Original at wwwhatsnew.com

Related Articles

hsbnoticias.comabout 7 hours ago
Juan Carlos Pinzón : Quejas en salud superaron los 2 millones

Published: 20260221T171500Z

noticiasrcn.com1 day ago
Paciente con leucemia de la Nueva EPS no recibe su medicamento desde noviembre : cuesta cinco millones de pesos

Published: 20260220T234500Z

TechCrunch1 day ago
Anthropic-funded group backs candidate attacked by rival AI super PAC

Dueling pro-AI PACs have centered around backing or targeting one New York congressional bid: Alex Bores, whose RAISE Act requires AI developers to disclose safety protocols and report serious system misuse.

Bloomberg1 day ago
Cyber Stocks Slide as Anthropic Unveils ‘Claude Code Security’

Shares of cybersecurity software companies tumbled Friday after Anthropic PBC introduced a new security feature into its Claude AI model.

South China Morning Post2 days ago
OpenAI and Anthropic CEOs refuse to hold hands during Modi’s India AI summit photo op

Once a rival, always a rival. As Prime Minister Narendra Modi kicked off the busiest day of India’s AI Summit in New Delhi, he orchestrated a photo op with 13 other business and political leaders, all standing in a line and holding each other’s hands above their heads. Well, all of them except two. Sam Altman and Dario Amodei, CEOs of rivals OpenAI and Anthropic, were positioned next to each other and, awkwardly, refused to clasp each other’s hands. Instead, they stood with their arms crossed in...

The Hill2 days ago
Pentagon feuds with Anthropic

{beacon} Technology Technology   The Big Story Anthropic on shaky ground with Pentagon amid feud Anthropic has increasingly found itself at odds with the Pentagon over how its AI model Claude can be deployed in military operations following disclosure about its use in the raid that captured Venezuelan President Nicolas Maduro last month. © Richard Drew, Associated...