Face à un intérêt social croissant, plusieurs universités françaises créent, depuis 2015, des diplômes en sciences humaines et sociales consacrés à la place de l’animal dans la société.
Droit des animaux, histoire du véganisme… L’université s’empare de la cause animale
par Catherine BOMPARD | Avr 8, 2020 | Actualités | 0 commentaires