Direito do trabalho no Brasil

Direito do trabalho, ou direito laboral, é o conjunto de normas jurídicas que regem as relações entre empregados e empregadores, e os direitos resultantes da condição jurídica dos trabalhadores. Direito do trabalho no Brasil se refere ao modo como o Estado brasileiro regula as relações de trabalho e as normas e conceitos importantes para o seu entendimento. As normas do direito do trabalho brasileiro estão regidas pela CLT (Consolidação das Leis do Trabalho), pela Constituição Federal e por várias leis esparsas (como a lei que define o trabalho do estagiário, dentre outras).

Natureza jurídica

O tema da classificação do direito do trabalho brasileiro não é ponto pacífico entre os doutrinadores. A corrente majoritária entende que ele faz parte do direito privado, uma vez que se trata da relação entre partes privadas: patrão e empregado. Porém, o direito do trabalho tem hoje várias regras cogentes (de caráter público) visando a garantir os direitos mínimos do trabalhador ante o empregador. Essas regras públicas existem em virtude da doutrina do intervencionismo básico do Estado que busca proteger o empregado, elo mais fraco da relação. Esse intervencionismo faz alguns defenderem uma natureza jurídica mista (ou seja, de direito parcialmente privado e parcialmente público) para este ramo do direito que mescla tanto de normas públicas quanto privadas. Outros vão mais longe e entendem que a livre manifestação das vontades foi substituída, no direito do trabalho, pela vontade do Estado e esse teria, portanto, caráter de direito público. Finalmente, há também uma corrente que liga o direito do trabalho ao direito social, enfatizando a coletivização do direito. De qualquer modo, a tese de que este ramo do direito seria parte do direito privado permanece sendo a que prevalece no direito brasileiro.[1]