Entradas

Entrada destacada

El Trabajo Social

Imagen
Tema: El Trabajo Social  Definición  del Trabajo Social  El trabajo social es una profesión basada en la práctica y una disciplina académica que promueve el cambio y el desarrollo social, cohesión, y el fortalecimiento y, la liberación de las personas.  Los principios de la justicia social, los derechos humanos, la responsabilidad colectiva y el respeto a la diversidad son fundamentales para el trabajo social. Respaldada por las teorías del trabajo social, las ciencias sociales, las humanidades y los conocimientos indígenas, el trabajo social involucra a las personas y las estructuras para hacer frente a desafíos de la vida y aumentar el bienestar.   El trabajo social basa su metodología en un cuerpo sistemático de conocimiento sustentados en la experiencia y derivados tanto de la investigación y evaluación de la práctica incluidos los contextos locales. Trabajo Social en la sociedad  El trabajo social varía de una cultura a otra para entender trabajo