Anatomía - Definición

Haz una pregunta
La anatomía es una ciencia dirigida al estudio de las diferentes partes de los organismos vivos, tanto animales como vegetales. Por medio de la disección u otros medios, se estudia el tamaño, la estructura y las relaciones de los elementos que forman un cuerpo, una planta, etc. Se distingue la anatomía general —que tiene en cuenta el análisis de la fisiología— de la anatomía descriptiva, que estudia los órganos y especifica la forma y el peso, entre otras características. También se distingue, a su vez, la anatomía quirúrgica que se ocupa en particular del estudio de una región específica del organismo.

Qué es la anatomía

Amoxicilina - Definición
Anfetaminas - Definición