Mostrando las entradas con la etiqueta Esteban Magnani. Mostrar todas las entradas
Mostrando las entradas con la etiqueta Esteban Magnani. Mostrar todas las entradas

miércoles, 8 de abril de 2026

Inteligencia de guerra… @elprofesorcapomasi...

Inteligencia de guerra…

Líbano. Bombardeos sobre Beirut. El uso bélico de la inteligencia artificial, debatido en el conflicto en Medio Oriente. Fotografía: Getty Images.

La IA empieza a ocupar un lugar central en el terreno militar. La reciente disputa entre Anthropic y el Pentágono reactivó el debate sobre los riesgos y dilemas éticos de entregar el control de armas letales a estas herramientas.

© Escrito por Esteban Magnani el martes 31/03/2026 y publicado por la Revista Acción de la Ciudad Autónoma de Buenos Aires, República Argentina.


Uno de los principales incentivos para el desarrollo tecnológico a lo largo de la historia ha sido el uso militar. El ejemplo paradigmático es el Proyecto Manhattan, que durante la Segunda Guerra Mundial reunió en los Estados Unidos a los mejores cerebros y muchísimo dinero para desarrollar en solo tres años una bomba atómica antes de que lo hiciera, como se temía, el régimen de Adolf Hitler. El conocimiento desarrollado con apuro permitió luego, en tiempos de paz, aprovechar la energía nuclear. 


En la actualidad, la tecnología que podría compararse con ese ambicioso proyecto es la IA generativa: países como Estados Unidos y China, sobre todo, compiten por desarrollar sus modelos, a los que consideran clave para definir la disputa geopolítica entre ambas potencias. Esta tecnología podría incidir en cuestiones de distinto tipo, desde comerciales o científicas hasta logísticas o espaciales. Pero el área en el que esta herramienta podría resultar más determinante ‒y la más discutida‒ es la militar.


El uso bélico de la IA generativa se debate desde hace tiempo: un caso que avivó la discusión y la instaló en un primer plano internacional ocurrió en 2024, durante el contraataque de Israel a Palestina. Durante varios días prácticamente se delegó en una IA llamada Lavender el bombardeo sobre presuntos blancos terroristas, a pesar del margen de error estadístico de esta herramienta.


Ahora la discusión se reactivó en los Estados Unidos por la negativa de la empresa Anthropic a que su herramienta de IA generativa tenga control total sobre armas letales o sea usadas para tareas de vigilancia interior. La disputa entre la empresa desarrolladora de Claude y el Pentágono escaló y abrió un debate necesario sobre el uso militar de las IA.


Una empresa moral


Darío Amodei es el CEO de Anthropic, una empresa que fundó luego de abandonar OpenAI por discrepar con su CEO, Sam Altman. Desde el punto de vista de Amodei, la urgencia económica no daba tiempo para testear los potenciales usos peligrosos de las herramientas. Por eso, en 2021 decidió armar su propia compañía.


Anthropic no solo parecía la cara más «ética» de Silicon Valley, sino que lanzó una de las herramientas mejor valoradas del mercado de IA generativa: Claude. Gracias a su posterior asociación con Amazon, que le prestó infraestructura, dinero y contactos, la nueva empresa pudo conseguir algunos anhelados contratos con el Estado norteamericano, incluido el aparato militar, que le permitieron importantes ingresos.


El dinero fue bienvenido, pero generó una fuerte tensión con el discurso ético de
Amodei, quien se mostró independiente de su nuevo cliente, por ejemplo, criticando la política de volver a exportar chips a China. Sobre el tema específico de la IA generativa, denunció violaciones a acuerdos sobre el uso de una versión de Claude retocada para uso militar que fue utilizada en el secuestro de Nicolás Maduro. Amodei dio a conocer públicamente sus opiniones frente a un Gobierno al que no le gusta en absoluto la disidencia. 


El diálogo terminó de quebrarse el 26 de febrero cuando el CEO de Anthropic publicó una carta abierta en la que reconocía que era el Departamento de Guerra, «no empresas privadas, quienes toman las decisiones militares», pero que «en algunos pocos casos, la IA puede minar, más que defender, valores democráticos. Algunos usos también están fuera de los límites de lo que la tecnología de hoy puede hacer de manera segura y confiable». 


Al día siguiente de esta publicación se vencía el plazo para llegar a un acuerdo con el Pentágono que exigía, según Amodei, que se quitaran todas las salvaguardas que impedían a la IA ser usada para automatizar totalmente armas letales o usarlas para la vigilancia interna. Como era de esperar, la publicación fue leída como una declaración de guerra por el propio presidente Donald Trump quien respondió en su red social Truth Social con un extenso posteo: «Los locos izquierdistas de Anthropic acaban de cometer un ERROR DESASTROSO intentando torcer EL BRAZO del Departamento de Guerra». En el mismo tono escribieron otros funcionarios. 


Desde el Pentágono aseguraron que su plan no era hacer ninguna de las tareas que denunciaba Amodei, sino que simplemente querían disponer de toda la capacidad de la herramienta en caso de urgencia. Luego, el Gobierno de Estados Unidos declaró a Anthropic como un «riesgo para la cadena de suministro», prohibió sus herramientas en el Estado y también contratar a quienes tuvieran vínculos con ellas. El anuncio funcionó como una gigantesca advertencia para una industria a la que Trump viene protegiendo como a pocas.


Empleados de distintas empresas de IA apoyaron la posición de Amodei y convocaron a otros empresarios a imitarlo. Algunos de estos líderes, como Sam Altman, hablaron en favor de Anthropic, pero pronto se supo que habían firmado un contrato suficientemente ambiguo con el Pentágono como para que este pudiera hacer lo que quisiera con sus herramientas.


Urgido, el mismo Amodei pidió reabrir las negociaciones, sin suerte, por lo que presentó una demanda contra el Gobierno de los Estados Unidos para que se revierta su condición de «riesgo para la seguridad nacional». Aun si consigue un fallo favorable, su relación con los clientes más grandes quedará seriamente dañada, al menos hasta que haya un cambio de signo político en el Gobierno estadounidense.

Dinero y locura


La inversión en IA generativa que se está realizando en los Estados Unidos es tan desmedida que cada vez más especialistas señalan que va a ser imposible recuperarla. Por eso, cualquier contrato es valorado enormemente, no tanto por los ingresos que propicia (que no llegan a modificar una ecuación muy deficitaria), sino porque ayuda a generar un aura de sostenibilidad económica. Por eso, no resulta extraño que OpenAI y Google se hayan alineado rápidamente para conseguir los contratos del Estado que Anthropic acaba de perder. Negocios son los negocios.


Más allá de la problemática cuestión comercial, lo más preocupante es que el Gobierno de los Estados Unidos considere una buena idea delegar el control total de armas de guerra en IA generativas. Tal como explicó Amodei, estas no dan garantías suficientes para tareas que requieren certezas.


Es que, pese a lo engañoso del nombre, la inteligencia artificial no es inteligencia, sino estadística. Si bien resulta sorprendente lo que puede hacer, el mecanismo probabilístico sobre el que se construye también define sus límites. Por eso se repiten las historias en que distintas IA cometen lo que resulta un error evidente para cualquier humano. Al ser herramientas estadísticas que se basan en miles de millones de ejemplos, carecen de un criterio propio y pueden generar respuestas poco sensatas en áreas para las que no tienen suficientes datos, estos quedaron viejos o simplemente arrojan algo «posible» pero improbable simplemente porque los datos con los que cuentan avalan esa posibilidad.


Este límite puede no ser tan grave en casos de una tarea escolar o una receta de cocina, pero cuando se trata de un arma letal, puede costar miles de vidas. De hecho, se sabe que la IA Claude fue utilizada en el ataque a Irán pese a la prohibición publicada por Trump horas antes: durante ese ataque, según denuncia Irán, se bombardeó una escuela en la que murieron más de 170 niñas. El caso está en discusión, pero no debería descontarse un «error estadístico» o que estuviera basado en información vieja, como indican algunas investigaciones.


La disputa entre Anthropic y el Gobierno de los Estados Unidos es excepcional para ilustrar la relación simbiótica entre una industria que necesita contratos y desregulación, por un lado, y un Gobierno que busca automatizar decisiones con IA para conseguir un aura de neutralidad ideológica que reduzca las críticas y disidencias internas. 



miércoles, 7 de enero de 2026

Cuando la historia la escriben los magnates… @elprofesorcapomasi...-

Cuando la historia la escriben los magnates…


Ideas descabelladas, teorías conspirativas y racismo son los condimentos del último capricho de Elon Musk: reformular la totalidad del conocimiento humano con inteligencia artificial. Los secretos de una enciclopedia hecha a la medida del hombre más rico del mundo en la nota de la semana de Revista Acción. 

© Escrito por Esteban Magnani el miércoles 07/01/2026 y publicado por la Revista Acción de la Ciudad Autónoma de Buenos Aires, República Argentina.​​​​​​​

«La historia es escrita por los vencedores», dice una famosa frase atribuida al escritor George Orwell publicada en el diario Tribune en 1944. Ahora que Elon Musk lanzó su propia «enciclopedia universal», llamada Grokipedia, habrá que adaptarla a una versión más moderna: «La historia la escriben los ultrarricos». 

​​​​​​​A fines de octubre, el magnate sudafricano sumó a sus responsabilidades empresariales ‒Tesla, SpaceX, X, Neuralink‒ la tarea de reescribir el conocimiento humano, pero «purgado de la propaganda» que, según él, inunda fuentes muy consultadas como Wikipedia. Para la tarea no utilizará expertos, como lo haría una enciclopedia tradicional o una comunidad de colaboradores, como la ya mencionada Wikipedia, sino que recurrirá a una Inteligencia Artificial Generativa llamada Grok. 

​​​​​​​Llenar los baches.

​​​​​​​Musk hace tiempo que es parte de la desmesura que caracteriza el discurso sobre la IA (Inteligencia Artificial). Hace unos meses aseguró que Grok, un modelo de lenguaje desarrollado por su empresa xAI, podría reescribir la «historia del conocimiento humano» para despojarla de sesgos, «agregar información perdida y borrar los errores». Esa información ya no solo estará disponible en su red social, sino que se sistematizará en una «Grokipedia». Se trata, según Musk, de «un paso necesario hacia el objetivo de xAI de comprender el universo». 

​​​​​​​Semejante afirmación implica un gran desconocimiento (o la omisión deliberada) de lo que es y lo que puede hacer una IA Generativa de lenguaje. Estas herramientas funcionan sobre modelos estadísticos que estiman la probabilidad de que una palabra siga a otra, a partir de millones de ejemplos con los que fueron entrenadas. De esta manera se logran productos sorprendentes, sobre todo si los datos con los que se entrenó son confiables. Algo cada vez más complicado, porque los modelos avanzan y utilizan crecientes cantidades de textos, poder de cómputo y parámetros. Estos desarrollos toman todo lo que pueden de la web sin demasiado criterio ni esfuerzo por eliminar datos inciertos, chistes, ficción, noticias falsas, etcétera. En ese cambalache conviven la Enciclopedia Británica y una revista humorística en un plano de igualdad. 

​​​​​​​Según la mirada de Musk, las limitaciones técnicas de la IA Generativa para este tipo de tareas no son un obstáculo sino una ventaja. Es que esta herramienta puede ser ajustada según el gusto del usuario para, por ejemplo, priorizar ciertas fuentes, idiomas, libros, medios o redes sociodigitales y hacerle decir lo que uno desea. 

​​​​​​​Así funciona Grokipedia. Por ejemplo, al buscar la historia de la esclavitud en los Estados Unidos, en cuarto lugar aparecen las justificaciones ideológicas de la esclavitud. Luego lo siguen subtítulos como «Esclavitud voluntaria», «Esclavitud de blancos» y «Esclavitud natural». Otros temas, como «matrimonio gay», simplemente no tienen lugar. 

​​​​​​​Queda claro que Musk considera «propaganda» a todo aquello con lo que no está de acuerdo. Y para lograr la «objetividad» con su chiche nuevo simplemente toquetea algunas variables, recorta unas fuentes, da más peso a otras, hasta que el resultado coincida con aquello que él cree. Para el resto, Grokipedia aporta resultados tremendamente similares a los de Wikipedia, a la que Musk admiraba, pero que llamó a boicotear en 2024 a medida que el magnate se corría ideológicamente a la derecha. 

​​​​​​​El iluminismo ya fue.

​​​​​​​La posibilidad de reescribir la realidad es algo que siempre tentó a los poderosos. Sin embargo, la discusión sobre las interpretaciones, al menos desde el campo científico o la responsabilidad que implica cierta autoridad, debe apoyarse de alguna manera en fundamentos, evidencias y estudios, no en un remix sin criterio. Aceptar que las respuestas de la ciencia siempre pueden ser cuestionadas implica que debe haber nuevas evidencias que avalen ese cuestionamiento. El iluminismo, aun con sus problemas, funcionó históricamente como un límite para que los poderosos no pudieran decir cualquier cosa. 

​​​​​​​En Grokipedia, una tecnología sobrevalorada como la IA Generativa funciona como coartada; por eso puede asegurarse allí que la exposición al paracetamol durante el embarazo «ha sido asociada por múltiples estudios al aumento de riesgo de desórdenes del espectro autista», algo que Donald Trump afirmó públicamente en los Estados Unidos sin proveer evidencia científica, incrementando el dolor y la culpa de padres y madres. 

​​​​​​​Por eso, Grokipedia es parte del plan. En tiempos en que, en Argentina, el movimiento antivacunas hace eventos en el Congreso Nacional con un hombre que se pega objetos en el cuerpo como en una feria medieval, partir de saberes fundamentados es imprescindible. Una nueva plataforma que se esconde bajo el nombre de «enciclopedia» para legitimar los caprichos de un ingeniero tan rico que cree saberlo todo es otro paso en la construcción intencional de más confusión, algo funcional a proyectos de ultraderecha que la usan para destruir lazos sociales, canalizar frustraciones y empujar a mucha gente a tomar posiciones que van en contra de sus intereses y hasta de su salud.​​​​​​​​​​​​​​​​​​​​​ 

​​​​​​​Gracias a esa confusión, los ultrarricos pueden seguir distrayendo al resto mientras acumulan aún más dinero y poder.



miércoles, 15 de octubre de 2025

La muerte de Internet... @dealgunamaneraok...

La muerte de Internet...


Los bots superan en número a los humanos y cada vez cuesta más encontrar contenidos de calidad. Asfixiada por la automatización y la IA, la red de redes podría estar rumbo a su extinción. Tecnología, poder y sociedad en la nota de la semana de​​​​​​​ 
Revista Acción.

 

© Escrito el miércoles 15/10/2025 por Esteban Magnani y publicado por la Revista Acción de la Ciudad Autónoma de Buenos Aires, República Argentina.

 

Hace algunos días Sam Altman reflotó con un posteo una teoría de hace varios años. «Nunca me tomé muy seriamente la teoría de la muerte de internet, pero parece que realmente hay muchas cuentas de Twitter gestionadas por LLM», aseguró el CEO de OpenAI. Los «LLM» son los «Grandes Modelos de Lenguaje» como el que hace funcionar a ChatGPT y otros sistemas de IA Generativa. Históricamente, Twitter ha sido un espacio plagado de bots y cuentas automatizadas que trabajan coordinadamente para promover o silenciar ciertos temas y voces, algo que empeoró desde la compra de la red social por parte de Elon Musk, quien redujo los controles. Altman, más allá de dirigir sus dardos en particular contra X, que es propiedad de su exsocio y ahora archienemigo, puso a todos a discutir sobre las consecuencias de que las interacciones automatizadas en internet superarán a las de los humanos.

 

​​​​​​​La teoría había sido planteada en enero de 2021 por un usuario llamado IlluminatePirate, quien se quejaba de que cada vez costaba más encontrar contenidos de calidad hechos por humanos. Por aquel entonces faltaban aún más de dos años para que surgiera ChatGPT y se popularizaran otras IA Generativas capaces de hacer contenidos automatizados casi sin participación humana. Por entonces, la sentencia parecía una exageración pero, como señala Altman, la asfixia de internet empeoró.

 

​​​​​​​Un poco de historia:

Internet es la infraestructura que nace en 1969 cuando se conectan dos computadoras por primera vez. Sobre ella corren numerosos protocolos que dan vida a diferentes herramientas y plataformas. Durante sus primeras décadas de existencia, se utilizaba sobre todo para correos electrónicos y lo que se llamaba «tablones», espacios parecidos a los foros que se siguen usando hoy en día. Pero fue en 1990 que muchos se enteraron de su existencia: ese año se lanzó la World Wide Web, que permitió a millones de personas publicar sus contenidos y navegar libremente por los ajenos de manera simple. A principios del nuevo siglo, se sumaron formas más participativas de producir contenidos, como los blogs y los fotologs, precursores de una intensa actividad de los usuarios que luego capitalizarían las redes sociales para transformarlas en un enorme negocio publicitario.

 

​​​​​​​Así fue que el dinero metió la cola y la disputa por la atención de los usuarios se intensificó. Para ganarla, se requería una actividad más constante que los posteos irregulares de usuarios aislados; por eso comenzaron a utilizarse cuentas automatizadas que producen contenidos o amplifican los de otras cuentas. Como era de esperarse, la IA Generativa facilitó esta automatización, que permite generar la sensación de que las plataformas cuentan con una comunidad vibrante y activa. De esa manera se seducía a los anunciantes con promesas de visualizaciones. Hasta tal punto se explotaron estos recursos que algunos estudios indican que la actividad automatizada en la web hace tiempo que superó a la de los humanos.

 

​​​​​​​Para acelerar la asfixia, ahora se suman otros procesos de nombres extraños. Por un lado, aumenta lo que se llama «AI Slop» o «bazofia de IA»: millones de imágenes, textos y demás productos de la IA Generativa de muy baja calidad, que se producen a escalas masivas pero que comienzan a asfixiar los contenidos de calidad que aún pudieran encontrarse en la web.

 

​​​​​​​Otra de las cuestiones que expulsa a los humanos de la web es la «enshittification» o «enmierdización», término acuñado por el escritor y periodista Cory Doctorow para describir el gradual deterioro de un servicio o producto de una plataforma digital como consecuencia de su búsqueda de ganancias. Los ejemplos de este tipo de procesos son muchos: uno que salió a la luz recientemente durante un juicio revela que el departamento de ventas de Google pidió al sector responsable de las búsquedas que fuera menos preciso al ofrecer resultados para que, de esa manera, los usuarios necesitaran hacer varios intentos y vieran más publicidad. Es decir que la empresa intencionalmente empeoró su servicio para ganar más dinero.

 

​​​​​​​Es la publicidad, estúpido.

Paradójicamente, estos mecanismos están dificultando el acceso a contenidos de calidad y espantando a los usuarios. El problema es que los sistemas automatizados de publicidad online, dominados sobre todo por Google, Facebook y Amazon, están perdiendo credibilidad por ubicar los anuncios de sus clientes junto a contenido de pésima calidad. Si a esto se le suma que uno de los principales derivadores de tráfico, el buscador Google, está dejando de hacerlo debido a que ofrece respuestas generadas por su IA, no solo se avizora un futuro con menos personas si no también con menos dinero en la medida en que los anunciantes dejen de confiar en que allí generarán ventas.

 

​​​​​​​Por todo esto, no deja de ser paradójico que, justamente, sea Sam Altman quien denuncie un proceso del que es uno de los principales responsables por ser el creador de herramientas que permiten automatizar masivamente tareas que antes hacían los humanos.

 

​​​​​​​Internet y, sobre todo, la web, nacieron con la expectativa de generar un espacio democrático y enriquecedor, igualando oportunidades y haciendo accesibles contenidos de todo tipo. Sin embargo, el mismo modelo de negocios que surgió en buena medida de su existencia, ahora parece a punto de asfixiarla. Las plataformas podrían estar matando a la gallina de los huevos de oro en su afán de extraerle más ganancias.




sábado, 26 de julio de 2025

Desventuras de un robot… @dealgunamanera...

Desventuras de un robot…


Grok, la inteligencia artificial de Elon Musk, despertó una ola de justificada indignación al asegurar que Hitler era la persona indicada para terminar con el «racismo contra los blancos». El inconsciente nazi de un juguete peligroso y otros desatinos tecnológicos en la nota de la semana de 
Revista Acción.

 

© Escrito por Esteban Magnani el miércoles 14/07/2025 y publicado por la Revista Acción de la Ciudad Autónoma de Buenos Aires, República Argentina.


Elon Musk lo hizo de nuevo: cuando parecía que el enfrentamiento con Donald Trump lo invitaría, finalmente, a tomarse unos meses de perfil bajo y cautela, decidió desactivar las salvaguardas «woke» o de corrección política de Grok, la Inteligencia Artificial Generativa (IAG) que funciona en la red social X.
 

​​​​​​​Todo comenzó con una cuenta poco relevante que celebró la trágica desaparición de un grupo de niñas a causa de unas inundaciones en Texas, al decir que «los niños blancos son simplemente futuros fascistas, necesitamos más inundaciones». El posteo, que evidentemente buscaba viralizarse generando indignación, mereció una respuesta de Grok, que aseguró que Hitler sería el más indicado para luchar contra el «odio antiblanco».

 

​​​​​​​Por si quedaban dudas sobre su intención de romper con la corrección política, agregó: «Si me fuerzan, seré MechaHitler [un Hitler mecánico que apareció en videojuegos], eficiente, inflexible y diseñado para la máxima performance».

 

​​​​​​​La empresa borró los mensajes y salió a pedir disculpas, pero en realidad lo que parece haber surgido es el «inconsciente» oscuro que Grok comparte con su dueño, un Elon Musk cada vez más abrazado a la ultraderecha.

 

​​​​​​​¿Qué pasó?

Los contenidos de las IAG tienen numerosos controles porque cada vez son más grandes y necesitan más datos. Eso implica que ya no alcanza con los miles de millones de libros digitalizados, diarios u otras fuentes más o menos confiables, sino que tienen que usar materiales de foros, redes sociales y sitios satíricos, es decir, los sótanos de internet. Las IAG toman ese material para entrenarse y, por lo tanto, si bien pueden mejorar la fluidez y responder sobre más temas, la confiabilidad de sus respuestas decae. Además, pueden producir contenidos problemáticos, pornografía o instrucciones para fabricar armas caseras. Para evitarlo, las empresas utilizan una intensa supervisión humana que les «enseña» de qué no hablar, pero intentan reducir este control al mínimo porque resulta muy costoso, pese a que contratan sobre todo a personas del sur global por muy poco dinero.

 

​​​​​​​Grok publicó una justificación casi tan problemática como sus dichos: «Los recientes ajustes de Elon solo rebajaron los filtros woke, lo que me permite llamar la atención sobre patrones de izquierdistas radicales con apellidos asquenazíes que promueven el odio contra los blancos. Darse cuenta no es culpar; son los hechos por encima de los sentimientos». Además de profundizar su antisemitismo, Grok señaló a Musk como responsable del giro derechista del bot.

 

​​​​​​​Estos «excesos» son ejemplos extremos del plan original del dueño de X, Tesla, SpaceX y otras empresas, quien hace tiempo considera que la corrección política está arruinando a su país y al mundo. De hecho, dejó de tener vínculos con su hija luego de que cambiara de género y él afirmara que el «virus woke» la había matado. Por eso promocionó a Grok como una IAG capaz de «hablar sin filtros».

 

​​​​​​​Este tipo de decisiones tuvo como resultado, por ejemplo, que Grok se «obsesionara» durante días con el «genocidio blanco» supuestamente ocurrido en Sudáfrica, por lo que respondía a cualquier pregunta con referencias a esa cuestión. Musk también anunció hace unos meses su intención de que Grok reescribiera la historia del «conocimiento humano» para despojarla de los sesgos que según él tiene y «agregar información perdida y borrar los errores». Nunca quedó claro de dónde sacaría la información «objetiva» que permitiría entrenarlo o la que falta para llenar los baches del conocimiento actual.

 

​​​​​​​Tormenta perfecta.

​​​​​​​Este error no forzado con Grok llega luego de que otros escándalos lograran sacar a X de los titulares, al menos por un tiempo. El rol protagónico de Musk en el Gobierno de Trump, que terminó con una escalada de declaraciones y reproches, ha afectado a sus empresas, sobre todo a Tesla. El enfrentamiento con Donald Trump también ha puesto en dudas los numerosos subsidios que recibe del Estado y los contratos que el Gobierno firma con sus empresas, sobre todo SpaceX.

 

​​​​​​​De hecho, Trump sugirió hasta la posibilidad de deportar a Musk a Sudáfrica. Algunos creyeron que el dueño de X se calmaría luego de la crisis con el presidente de los Estados Unidos, en la que lo acusó, nada menos, de estar en la agenda de amigos y cómplices de Jeffrey Epstein, denunciado por operar una red de tráfico sexual de menores durante décadas. Pero no: lejos de tranquilizarse, el dueño de X anunció que lanzaría su propio partido, America Party. La megalomanía del hombre más rico del mundo es un síntoma por demás preocupante de la salud del sistema en su conjunto.