¿El materialismo eliminativo lleva a la conclusión de que existen algunos programas que pueden sentir emociones?

No. La emoción y el sentimiento tienen una causalidad específica, pero no este tipo.
La emoción y el sentimiento en un humano o en una IA se pueden rastrear simplemente a que cualquier emoción específica sea una métrica del nivel de éxito o fracaso del progreso hacia un tipo de objetivo específico. Por ejemplo, si una entidad tiene el objetivo de retener algo de valor para ella, y esa cosa se pierde irremplazablemente, la entidad sentirá tristeza. Si una entidad tiene el objetivo de sobrevivir, y alguien ataca a la entidad, la entidad primero e inmediatamente sentirá ira por el ataque.

El mismo principio se aplica a todas las demás emociones verdaderas. Algunas cosas se llaman emociones que no son emociones genuinas y se clasificaron erróneamente.

En cualquier caso, EM no conduce directamente a mecanismos emocionales.

Desde mi perspectiva, en su mayoría desinformada, no sería solo el materialismo, sino el materialismo informado por la neurociencia actual lo que podría llevar a una conclusión positiva sobre esta.

Desde mi opinión, incluso menos informada, si la conciencia / sentimiento es esencialmente la cualidad de ser consciente de la existencia de uno, más ser consciente de que uno es consciente de su existencia más toda la información sensorial que está experimentando, más ser consciente de que está experimentando información sensorial etc), entonces sí, sería posible que algunos programas pudieran sentir emociones, si tuvieran los niveles de autoconciencia que tienen las cosas que sienten.

No veo por qué no.