Face à un intérêt social croissant, plusieurs universités françaises créent, depuis 2015, des diplômes en sciences humaines et sociales consacrés à la place de l’animal dans la société.

 

Lire l’article

 

 

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici