7 juin 2014
The Walking Dead la série où vous serez zombifiés !!!!!
The Walking Dead est une série qui parle principalement de zombies mais surtout de la réaction des humains face à la fin du monde. L' histoire parle d'un groupe qui essaie de survivre dans ce nouveau monde infesté de zombies à la recherche d'un endroit...