Como una de las ramas más importantes de la
biología, la anatomía humana llamada también antropotomía, es la ciencia que
estudia la forma y la estructura del cuerpo humano e investiga las leyes que
rigen el desarrollo de dicha estructura con respecto a sus funciones y su relación
con el medio ambiente.
Sabemos que la anatomía, reconocida como
ciencia de las formas y de las estructuras del cuerpo humano es imprescindible
en los inicios de todo programa de estudios relacionados con la medicina, es
decir, es el comienzo necesario de todo saber médico.