Definición de Trabajo Social
El Trabajo Social promueve el cambio social, la resolución de problemas en las relaciones humanas, el fortalecimiento y la liberación de las personas para incrementar el bienestar mediante la utilización de teorías sobre el comportamiento humano y los sistemas sociales. El Trabajo Social interviene en la forma en que las personas interactúan con su entorno. Los principios de derechos humanos e injusticia social son fundamentales para el correcto Trabajo Social.