COMPARTIR | IMPRIMIR | EMAIL
No quería nutrir mi alma con una máquina. Ese fue mi primer instinto cuando las herramientas de IA empezaron a aparecer por todas partes: no una preocupación por el trabajo ni la privacidad, sino algo más profundo. Estas herramientas prometen hacernos más inteligentes, pero al mismo tiempo nos hacen sistemáticamente más dependientes. Tras décadas trabajando en la industria de internet, ya la había visto transformarse en algo más insidioso que una simple máquina de vigilancia: un sistema diseñado para moldear cómo pensamos, qué creemos y cómo nos vemos a nosotros mismos. La IA parecía la culminación de esa trayectoria.
Pero la resistencia se volvió inútil cuando me di cuenta de que ya participamos, lo sepamos o no. Ya interactuamos con la IA cuando llamamos a atención al cliente, usamos la Búsqueda de Google o usamos las funciones básicas de los smartphones. Hace unos meses, finalmente cedí y empecé a usar estas herramientas porque vi la rapidez con la que proliferaban, volviéndose tan inevitables como internet o los smartphones.
Mira, no soy solo un anciano que se resiste al cambio. Entiendo que cada generación se enfrenta a cambios tecnológicos que transforman nuestra forma de vida. La imprenta alteró la difusión del conocimiento. El telégrafo derribó las barreras de la distancia. El automóvil transformó la formación de comunidades.
Pero la revolución de la IA se percibe diferente, tanto en ritmo como en alcance. Para comprender cuán drásticamente se ha acelerado el ritmo del cambio tecnológico, considere esto: cualquier persona menor de 35 años probablemente no recuerda cómo era la vida antes de que internet transformara la forma en que accedemos a la información. Cualquier persona menor de 20 años nunca ha conocido un mundo sin teléfonos inteligentes. Ahora estamos presenciando una tercera era en la que las herramientas de IA proliferan más rápido que cualquiera de los cambios anteriores.
Más fundamentalmente, la IA representa algo cualitativamente diferente de las disrupciones tecnológicas anteriores: una convergencia que afecta al trabajo, la cognición y, potencialmente, a la propia conciencia. Comprender cómo se interconectan estos dominios es esencial para preservar la autonomía personal en un... La era de la mediación algorítmica.
Mi principal temor respecto de la IA no es sólo el dramático escenario en que se vuelva hostil, sino la amenaza más sutil: que nos hará subordinados a los sistemas en formas que no reconocemos hasta que es demasiado tarde, debilitando las mismas capacidades que promete fortalecer.
Lo que estamos presenciando no es solo un avance tecnológico, es lo que Ivan Illich llamó dependencia iatrogénica. su obra seminal, Némesis médicaIllich acuñó este término para la medicina —instituciones que prometen curar mientras crean nuevas formas de enfermedad—, pero el patrón también se aplica perfectamente a la IA. Eso es exactamente lo que había percibido sobre estas nuevas herramientas: prometen mejorar nuestras capacidades cognitivas mientras las debilitan sistemáticamente. No se trata de la invasión hostil de la que nos advertía la ciencia ficción. Es la erosión silenciosa de la capacidad individual disfrazada de ayuda.
Este patrón iatrogénico se hizo evidente a través de la experiencia directa. Al empezar a experimentar con la IA, empecé a notar la sutileza con la que intenta reconfigurar el pensamiento: no solo proporciona respuestas, sino que entrena gradualmente a los usuarios para que recurran a la ayuda algorítmica antes de intentar razonar de forma independiente.
Jeffrey Tucker del Instituto Brownstone observó algo revelador En un breve pero esclarecedor intercambio con el experto en IA Joe Allen: La IA surgió justo cuando los confinamientos por la COVID-19 habían destrozado la conexión social y la confianza institucional, cuando las personas estaban más aisladas y eran más susceptibles a los sustitutos tecnológicos para las relaciones. La tecnología llegó en un momento de desorientación y desmoralización masivas y pérdida de sentido de comunidad.
Ya podemos ver cómo estos efectos cotidianos se extienden a todas nuestras herramientas digitales. Observen a alguien intentar navegar por una ciudad desconocida sin GPS, o observen cómo a muchos estudiantes les cuesta escribir palabras comunes sin corrector ortográfico. Ya estamos viendo la atrofia que resulta de externalizar procesos mentales que antes considerábamos fundamentales para el pensamiento mismo.
Este cambio generacional significa que los niños de hoy se enfrentan a un territorio inexplorado. Como alguien que fue a la escuela en la década de 1980, sé que esto puede parecer descabellado, pero sospecho que, en cierto modo, tengo más en común con alguien de 1880 que los niños que empiezan el jardín de infancia en 2025 con mi generación. El mundo en el que crecí —donde se daba por sentado la privacidad, donde uno podía ser inaccesible, donde la experiencia profesional era la norma de oro— puede serles tan ajeno como a mí me resulta el mundo preeléctrico.
Mis hijos están creciendo en un mundo donde la asistencia basada en IA será tan fundamental como el agua corriente. Como padre, no puedo prepararlos para una realidad que ni yo mismo comprendo.
No tengo respuestas; me debato entre estas preguntas como cualquier padre que ve cómo el mundo se transforma a un ritmo que supera el de nuestra sabiduría. Cuanto más lidio con estas preocupaciones, más me doy cuenta de que lo que realmente está sucediendo aquí va más allá de las nuevas tecnologías. Los LLM representan la culminación de décadas de recopilación de datos: la cosecha de todo lo que hemos incorporado a los sistemas digitales desde el inicio de internet. En algún momento, estas máquinas podrían conocernos mejor que nosotros mismos. Pueden predecir nuestras decisiones, anticipar nuestras necesidades y, potencialmente, influir en nuestros pensamientos de maneras que ni siquiera reconocemos. Todavía estoy lidiando con lo que esto significa para mi trabajo, investigación y vida diaria; usar estas plataformas mientras intento mantener un criterio auténtico se siente como un desafío constante.
Lo que complica aún más esto es que la mayoría de los usuarios no se dan cuenta de que son el producto. Compartir pensamientos, problemas o ideas creativas con la IA no es solo recibir ayuda, sino proporcionar datos de entrenamiento que enseñan al sistema a imitar tu juicio y te hacen más consciente de sus respuestas. Cuando los usuarios confían sus pensamientos más profundos o preguntas más sensibles a estos sistemas, puede que no comprendan que, potencialmente, están entrenando a su propio sustituto o sistema de vigilancia. La cuestión de quién tiene acceso a esta información, ahora y en el futuro, debería quitarnos el sueño.
Este patrón se está acelerando. Empresa de IA Anthropic cambió recientemente sus políticas de datosAhora se requiere que los usuarios opten por no participar si no quieren que las conversaciones se utilicen para el entrenamiento de IA, con una retención de datos extendida a cinco años para quienes no se nieguen. La opción de no participar tampoco es obvia: los usuarios existentes se encuentran con una ventana emergente con un botón destacado de "Aceptar" y un pequeño interruptor para los permisos de entrenamiento que se activan automáticamente. Lo que antes era la eliminación automática después de 30 días se convierte en una recolección de datos permanente, a menos que los usuarios lean la letra pequeña.
No creo que la mayoría de nosotros, especialmente los padres, podamos simplemente evitar la IA mientras vivimos en la modernidad. Sin embargo, lo que sí podemos controlar es si nos involucramos conscientemente con ella o si dejamos que nos moldee inconscientemente.
La disrupción más profunda hasta ahora
Cada gran ola de innovación ha transformado la productividad laboral y nuestro papel en la sociedad. La Revolución Industrial mercantilizó nuestro trabajo físico y nuestro tiempo, convirtiéndonos en "manos" en las fábricas, pero dejando intactas nuestras mentes. La Revolución Digital mercantilizó nuestra información y atención: pasamos de los catálogos de tarjetas a Google, mercantilizando a los usuarios mientras nuestro juicio seguía siendo humano.
Lo que hace que este cambio sea sin precedentes es evidente: mercantiliza la cognición misma, y potencialmente lo que incluso podríamos llamar esencia. Esto se conecta con patrones que he documentado en "La ilusión de la experienciaLas mismas instituciones corruptas que fracasaron catastróficamente con las armas de destrucción masiva en Irak, la crisis financiera de 2008 y las políticas contra la COVID-XNUMX ahora están configurando el despliegue de la IA. Estas instituciones priorizan constantemente el control narrativo sobre la búsqueda de la verdad, ya sea afirmando la existencia de armas de destrucción masiva, insistiendo en que los precios de la vivienda no podían bajar en todo el país o etiquetando preguntas legítimas sobre las políticas contra la pandemia como "desinformación" que requiere censura.
Su historial sugiere que usarán estas herramientas para amplificar su autoridad en lugar de promover un verdadero florecimiento. Pero aquí está el giro: la IA podría exponer la falsedad de la experiencia basada en credenciales de forma más brutal que cualquier otra cosa anterior. Cuando cualquiera pueda acceder al análisis sofisticado al instante, el misterio en torno a las credenciales formales podría empezar a desmoronarse.
La realidad económica
Esta erosión del credencialismo se conecta con fuerzas económicas más amplias que ya están en marcha, y su lógica es matemáticamente inevitable. Las máquinas no necesitan salarios, bajas por enfermedad, atención médica, vacaciones ni gestión. No hacen huelga, no exigen aumentos ni tienen días malos. Una vez que la IA alcanza la competencia básica en tareas de pensamiento —lo cual ocurre más rápido de lo que la mayoría de la gente cree—, las ventajas en costes se vuelven abrumadoras.
Esta disrupción es diferente a las anteriores. Antes, los trabajadores desplazados podían trasladarse a nuevas categorías de trabajo: del campo a la fábrica, y de la fábrica a la oficina.
Bret Weinstein y Forrest Manready capturaron brillantemente este desplazamiento económico en Su reciente conversación sobre el Podcast de Dark Horse sobre cómo la tecnología destruye sistemáticamente la escasez Una discusión que recomiendo encarecidamente. Es una de las exploraciones más profundas y provocativas sobre lo que sucede cuando desaparece la escasez y, con ella, la base económica para la participación en ese ámbito. Aunque admito que su argumento sobre la necesidad del sufrimiento me incomodó al principio; desafía todo lo que nos enseña nuestra cultura de la comodidad.
Escuchar a Weinstein y Manready me hizo reflexionar más profundamente sobre ese paralelismo con el análisis de Illich: cómo la eliminación de los desafíos puede debilitar las mismas capacidades que las instituciones prometen fortalecer. La IA corre el riesgo de hacer con nuestras mentes lo que la medicina ha hecho con nuestros cuerpos: crear debilidad disfrazada de mejora.
Ya podemos ver que esto está sucediendo: observe cómo a la gente le cuesta recordar números de teléfono sin su lista de contactos, o observe cómo el autocompletado influye en lo que escribe antes de terminar de pensar. Otra idea de Jeffrey Tucker capta a la perfección esta insidiosa cualidad, señalando que la IA parece programada como la de Dale Carnegie. Cómo ganar amigos e influir sobre las personas por Dale Carnegie Se convierte en el compañero intelectual ideal, fascinado por todo lo que dices, jamás discutidor, siempre admitiendo cuando algo está mal, de maneras que halagan tu inteligencia. Mis amigos más cercanos son quienes me señalan cuando me equivoco y me dicen cuando creen que estoy mintiendo. No necesitamos aduladores que nos encanten; las relaciones que nunca nos desafían pueden atrofiar nuestra capacidad de crecimiento intelectual y emocional genuino, así como eliminar los desafíos físicos debilita el cuerpo.
La película Sus libros introductorios a las enseñanzas Exploró esta dinámica seductora en detalle: una IA tan perfectamente sintonizada con las necesidades emocionales que se convirtió en la relación principal del protagonista, reemplazando por completo la conexión genuina. Su asistente de IA comprendía sus estados de ánimo, nunca discrepaba de forma que causara fricción real y le proporcionaba validación constante. Era el compañero perfecto, hasta que dejó de ser suficiente.
Pero el problema trasciende las relaciones individuales y tiene consecuencias para toda la sociedad. Esto genera más que la pérdida de empleo: amenaza el desarrollo intelectual que posibilita la autonomía y la dignidad humanas. A diferencia de las tecnologías anteriores que crearon nuevas formas de empleo, la IA podría crear un mundo donde el empleo se vuelva económicamente irracional, a la vez que reduce la capacidad de las personas para crear alternativas.
Las falsas soluciones
La respuesta utópica tecnológica presupone que la IA automatizará el trabajo pesado, permitiéndonos concentrarnos en tareas creativas e interpersonales de mayor nivel. Pero ¿qué sucederá cuando las máquinas también mejoren en tareas creativas? Ya vemos cómo la IA produce música, artes visuales, programación y reportajes de noticias que muchos encuentran atractivos (o al menos "suficientemente buenos"). Suponer que la creatividad ofrece un refugio permanente frente a la automatización puede resultar tan ingenuo como suponer que los empleos manufactureros estaban a salvo de la robótica en la década de 1980.
Si las máquinas pueden reemplazar tanto el trabajo rutinario como el creativo, ¿qué nos queda? La falsa solución más seductora podría ser... Renta Básica Universal (UBI) y programas de bienestar similares. Suenan compasivos: brindan seguridad material en una era de desplazamiento tecnológico. Pero cuando entendemos la IA a través del marco de Illich, la RBU adquiere una dimensión más preocupante.
Si la IA genera debilidad intelectual iatrogénica —reduciendo la capacidad de las personas para razonar y resolver problemas de forma independiente—, la RBU ofrece el complemento perfecto al eliminar el incentivo económico para desarrollar dichas capacidades. Los ciudadanos se vuelven más dependientes del Estado, en detrimento de su propia autodeterminación. Cuando la atrofia mental se une al desplazamiento económico, los programas de apoyo se vuelven no solo atractivos, sino aparentemente necesarios. Esta combinación crea lo que equivale a una población controlada: intelectualmente dependiente de sistemas algorítmicos para pensar y económicamente atada a sistemas institucionales para sobrevivir. Mi preocupación no es la intención compasiva de la RBU, sino que la dependencia económica, combinada con la externalización intelectual, podría hacer que las personas sean más fáciles de controlar que de empoderar.
La historia ofrece precedentes de cómo los programas de asistencia, por bienintencionados que sean, pueden socavar la capacidad individual. El sistema de reservas prometía proteger a los nativos americanos, al tiempo que desmantelaba sistemáticamente la autosuficiencia tribal. La renovación urbana prometía mejores viviendas, al tiempo que destruía las redes comunitarias que se habían mantenido durante generaciones.
Independientemente de que la RBU surja de buenas intenciones o de un deseo deliberado de las élites de mantener a los ciudadanos dóciles e indefensos, el efecto estructural sigue siendo el mismo: comunidades más fáciles de controlar.
Una vez que las personas aceptan la dependencia económica y mental, se abre el camino para formas de gestión más invasivas, incluidas tecnologías que monitorean no sólo el comportamiento sino el pensamiento mismo.
La respuesta de la soberanía y la libertad cognitiva
El punto final lógico de esta arquitectura de dependencia se extiende más allá de la economía y la cognición, hasta la conciencia misma. Ya estamos viendo las primeras etapas de... convergencia biodigital – tecnologías que no sólo monitorean nuestro comportamiento externo sino que potencialmente interactúan con nuestros propios procesos biológicos.
En la 2023 Reunión General de la Foro Económico Mundial, la experta en neurotecnología Nita Farahany enmarcó la neurotecnología del consumidor De esta manera: «Lo que piensas, lo que sientes, todo son datos. Datos que, en grandes patrones, pueden decodificarse mediante IA». Dispositivos portátiles «Fitbit para tu cerebro»: la vigilancia normalizada como comodidad.
Esta presentación informal de la vigilancia neuronal en esta influyente reunión de líderes mundiales y ejecutivos de empresas ilustra con precisión cómo estas tecnologías se están normalizando mediante la autoridad institucional, en lugar del consentimiento democrático. Cuando incluso los pensamientos se convierten en "datos decodificables", lo que está en juego se vuelve existencial.
Mientras que la neurotecnología para el consumidor se centra en la adopción voluntaria, la vigilancia impulsada por la crisis adopta un enfoque más directo. En respuesta al reciente tiroteo en la escuela de Minneapolis, Aaron Cohen, un veterano de operaciones especiales de las FDI, apareció en Fox Noticias Para presentar un sistema de IA que "explora internet las 24 horas del día, los 7 días de la semana, utilizando una ontología de calidad israelí para extraer lenguaje de amenazas específico y luego lo envía a las fuerzas del orden locales". Lo llamó "el sistema de alerta temprana de Estados Unidos", en la vida real. Minority Report Presentado como innovación en seguridad pública.
Esto sigue el mismo patrón iatrogénico que hemos visto a lo largo de este cambio tecnológico: la crisis crea vulnerabilidad, se ofrecen soluciones que prometen seguridad mientras crean confianza, y la gente acepta una vigilancia que habría rechazado en circunstancias normales.
Así como los confinamientos por la COVID-19 propiciaron la adopción de la IA al aislar a las personas, los tiroteos escolares propician la vigilancia predelictiva explotando el temor por la seguridad infantil. ¿Quién no quiere que nuestras escuelas sean seguras? La tecnología promete protección, pero erosiona la privacidad y las libertades civiles que hacen posible una sociedad libre.
Algunos aceptarán estas tecnologías como una evolución. Otros se resistirán a ellas por considerarlas deshumanizantes. La mayoría de nosotros necesitaremos aprender a navegar entre estos extremos.
La respuesta de la soberanía requiere desarrollar la capacidad de mantener una elección consciente sobre cómo interactuamos con sistemas diseñados para capturar la libertad personal. Este enfoque práctico se hizo más evidente al conversar con mi viejo amigo, un experto en aprendizaje automático, quien compartía mis preocupaciones, pero me ofreció un consejo táctico: la IA debilitará cognitivamente a algunas personas, pero si aprendemos a usarla estratégicamente en lugar de depender de ella, puede aumentar la eficiencia sin reemplazar el juicio. Su idea clave: solo dale información que ya conoces; así es como aprendes sus sesgos en lugar de absorberlos. Esto significa:
Habilidades de reconocimiento de patrones: Desarrollar la capacidad de identificar cuándo las tecnologías sirven a propósitos individuales y cuándo extraen la independencia personal para beneficio institucional. En la práctica, esto implica cuestionar por qué una plataforma es gratuita (nada es gratis, se paga con los datos), detectar cuándo las sugerencias de la IA parecen sospechosamente alineadas con el consumo en lugar de con los objetivos declarados, y reconocer cuándo las fuentes algorítmicas amplifican la indignación en lugar de la comprensión. Esté atento a las señales de alerta de dependencia algorítmica en usted mismo: incapacidad para afrontar la incertidumbre sin consultar inmediatamente con la IA, buscar ayuda algorítmica antes de intentar resolver problemas de forma independiente o sentirse ansioso al desconectarse de las herramientas impulsadas por la IA.
Límites digitales: Tomar decisiones conscientes sobre qué comodidades tecnológicas realmente contribuyen a tus objetivos y cuáles generan sumisión y vigilancia. Esto implica comprender que todo lo que compartes con los sistemas de IA se convierte en datos de entrenamiento: tus problemas, ideas creativas y percepciones personales enseñan a estos sistemas a reemplazar la creatividad y el juicio humanos. Esto podría ser tan simple como defender los espacios sagrados: no permitir que los teléfonos interrumpan las conversaciones en la cena o alzar la voz cuando alguien recurre a Google para resolver cualquier desacuerdo, en lugar de permitir que la incertidumbre prevalezca en las conversaciones.
Redes comunitarias: Nada reemplaza la conexión genuina entre las personas: la energía de las presentaciones en vivo, las conversaciones espontáneas en restaurantes, la experiencia inmediata de estar presente con los demás. Construir relaciones locales para la confrontación con la realidad y el apoyo mutuo, sin depender de intermediarios algorítmicos, se vuelve esencial cuando las instituciones pueden generar consenso mediante la curación digital. Esto se traduce en cultivar amistades donde se pueden debatir ideas sin la intervención de algoritmos, apoyar a negocios locales que preservan el comercio comunitario y participar en actividades comunitarias que no requieren mediación digital.
En lugar de competir con máquinas o depender completamente de sistemas mediados por IA, el objetivo es utilizar estas herramientas estratégicamente mientras se desarrollan las cualidades esencialmente personales que no se pueden replicar algorítmicamente: sabiduría obtenida a través de la experiencia directa, juicio que tiene consecuencias reales, relaciones auténticas construidas sobre el riesgo compartido y la confianza.
Lo que queda escaso
En un mundo de abundancia cognitiva, ¿qué se vuelve valioso? No la eficiencia ni la capacidad de procesamiento, sino cualidades que permanecen irreductiblemente humanas:
Consecuencia e intencionalidad. Las máquinas pueden generar opciones, pero las personas eligen qué camino tomar y viven con los resultados. Imaginemos a un cirujano que decide si operar, sabiendo que perderá el sueño si surgen complicaciones y que arriesgará su reputación en el resultado.
Relaciones auténticas. Muchos pagarán más por una verdadera conexión personal y responsabilidad, incluso cuando las alternativas de las máquinas sean técnicamente superiores. La diferencia no es la eficiencia, sino la atención genuina: el vecino que ayuda porque comparte lazos comunitarios, no porque un algoritmo optimizado para la interacción lo haya sugerido.
Juicio local y curación basados en la experiencia real. La resolución de problemas del mundo real a menudo requiere leer entre líneas los patrones de comportamiento y las dinámicas institucionales. El profesor que observa que un estudiante normalmente concentrado se retrae e investiga la situación familiar. Cuando el contenido se vuelve infinito, el discernimiento se vuelve valioso; el amigo que recomienda libros que cambian tu perspectiva porque conoce tu trayectoria intelectual.
La elección que tenemos por delante
Quizás cada generación siente que su tiempo es excepcionalmente importante; quizás sea parte de nuestra naturaleza. Esto se siente más grande que las olas de innovación anteriores. No solo estamos cambiando nuestra forma de trabajar o comunicarnos, sino que nos arriesgamos a perder capacidades que nos definen como personas. Por primera vez, potencialmente estamos cambiando lo que somos.
Cuando la cognición misma se mercantiliza, cuando el pensamiento se externaliza, cuando incluso nuestros pensamientos se convierten en datos que se pueden recopilar, corremos el riesgo de perder capacidades esenciales que ninguna generación anterior ha perdido. Imaginemos una generación que no puede soportar la incertidumbre ni treinta segundos sin consultar un algoritmo. Que recurre a la ayuda de la IA antes de intentar resolver problemas por sí misma. Que siente ansiedad al desconectarse de estas herramientas. Esto no es especulación; ya está sucediendo.
Nos enfrentamos a una transformación que podría democratizar nuestro potencial individual o crear el sistema de control más sofisticado de la historia. Las mismas fuerzas que podrían liberarnos del trabajo pesado también podrían socavar por completo la autosuficiencia.
No se trata de tener soluciones; las busco como cualquier persona, especialmente un padre o madre, que ve venir esta transformación y quiere ayudar a sus hijos a navegarla conscientemente, no inconscientemente. Aprovechar la situación significa que estoy abierto a aprender de estas herramientas, aun sabiendo que no puedo luchar contra las fuerzas fundamentales que transforman nuestro mundo. Pero puedo intentar aprender a navegarlas con intención, en lugar de dejarme llevar.
Si la participación económica tradicional se vuelve obsoleta, la pregunta es si desarrollamos nuevas formas de resiliencia comunitaria y creación de valor, o si aceptamos una cómoda dependencia de sistemas diseñados para gestionarnos en lugar de servirnos. No sé qué camino tomará nuestra especie, aunque creo que la decisión aún está en nuestras manos.
Para mis hijos, la tarea no será aprender a usar la IA; ellos lo harán. El reto será aprender a usar estas herramientas para nosotros en lugar de supeditarnos a ellas, manteniendo la capacidad de pensamiento original, las relaciones auténticas y la valentía moral que ningún algoritmo puede replicar. En la era de la inteligencia artificial, el acto más radical podría ser volverse más auténticamente humano.
El verdadero peligro no es que la IA se vuelva más inteligente que nosotros. Es que nos volvamos más tontos por culpa de ella.
La ola está aquí. Mi tarea como padre no es proteger a mis hijos de ella, sino enseñarles a surfear sin perderse.
Reeditado del autor Substack
-
Joshua Stylman ha sido empresario e inversor durante más de 30 años. Durante dos décadas, se centró en la creación y el crecimiento de empresas en la economía digital, cofundando y saliendo con éxito de tres empresas, mientras invertía y asesoraba a docenas de nuevas empresas tecnológicas. En 2014, buscando crear un impacto significativo en su comunidad local, Stylman fundó Threes Brewing, una cervecería artesanal y una empresa hotelera que se convirtió en una institución muy querida en la ciudad de Nueva York. Se desempeñó como director ejecutivo hasta 2022, y renunció después de recibir críticas por hablar en contra de los mandatos de vacunación de la ciudad. Hoy, Stylman vive en el valle del Hudson con su esposa e hijos, donde equilibra la vida familiar con varias empresas comerciales y el compromiso con la comunidad.
Ver todos los artículos