El Trabajo Social
Tema: El Trabajo Social Definición del Trabajo Social El trabajo social es una profesión basada en la práctica y una disciplina académica que promueve el cambio y el desarrollo social, cohesión, y el fortalecimiento y, la liberación de las personas. Los principios de la justicia social, los derechos humanos, la responsabilidad colectiva y el respeto a la diversidad son fundamentales para el trabajo social. Respaldada por las teorías del trabajo social, las ciencias sociales, las humanidades y los conocimientos indígenas, el trabajo social involucra a las personas y las estructuras para hacer frente a desafíos de la vida y aumentar el bienestar. El trabajo social basa su metodología en un cuerpo sistemático de conocimiento sustentados en la experiencia y derivados tanto de la investigación y evaluación de la práctica incluidos los contextos locales. Trabajo Social en la sociedad El trabajo social varía de una cultura a otra para entender trabajo