Face à un intérêt social croissant, plusieurs universités françaises créent, depuis 2015, des diplômes en sciences humaines et sociales consacrés à la place de l’animal dans la société.