¿Qué derechos se otorgan a los hombres que se modifican o eliminan por completo para las mujeres en los Estados Unidos?

Ninguna. Los hombres y las mujeres son iguales ante la ley en los Estados Unidos.

Las mujeres, sin embargo, tienen un derecho que les es exclusivo de que los hombres no tienen nada que decir en su ejercicio de: el aborto. Un hombre como el padre de un niño no tiene nada que decir sobre lo que una mujer hace con su cuerpo a pesar de que está involucrado en la situación en un 50%.

Los hombres pueden estar sin camisa en público; las mujeres no pueden

Creo que esto varía mucho de un estado a otro y de un condado a otro, pero muchos lugares en los EE. UU. Tienen leyes locales de “decencia pública” que prohíben la desnudez pública.