From BlenderWiki

Jump to: navigation, search
Blender3D FreeTip.gif
IMPORTANT! Do not update this page!
We have moved the Blender User Manual to a new location. Please do not update this page, as it will be locked soon.

Traduction effectuée d’après cette révision de la version anglaise.

La profondeur de champ expliquée

Les caméras du monde réel, ou vos yeux, utilisent un objectif (la cornée pour les yeux) qui courbe, dévie la lumière, et un diaphragme (ou iris, comme pour les yeux) qui contrôle la quantité de lumière, pour projeter une image nette sur une pellicule, un capteur CCD/CMOS, ou la rétine. À cause des interactions objectif/diaphragme, les objets situés à une certaine distance sont nets, alors que ceux qui sont à l’avant plan ou à l’arrière plan sont flous. Cette distance est appelée profondeur ou “Z”-distance à la caméra ou à l’œil.

Dans le monde réel, la lumière arrive à l’objectif selon un certain angle, une direction donnée. Ce que vous voyez dépend de votre perspective : si vous vous rapprochez, vous voyez la scène sous un autre angle et certaine de ses parties vous sont révélées. Pour obtenir des images “plates”, comme une dessin architectural ou un diagramme, Blender peut aussi réaliser un rendu orthographique (Orthographic). Il y a donc (au moins) deux types de rendus : en perspective et orthographique. La perspective simule la vision naturelle, la lumière convergeant depuis le champ de vision (field of view) vers l’objectif, et l’orthographique (désactivé par défaut) simule une lumière “parallèle” arrivant sur un plan-capteur (ou rétine “plate”) infiniment étendu.

Manual-Camera-DOF.jpg

En fonction de l’ouverture f de l’iris (fonction inverse de son diamètre : f:16 est beaucoup plus fermée que f:3.5 !), il y a un espace dans lequel les objets sont nets. Dit autrement, il y a un “champ” de vision (ce que vous voyez de gauche à droite et de haut en bas – votre image, si vous voulez). Il y a un ensemble de distances, ou “profondeurs”, dans lesquelles les objets sont nets. Ces deux éléments réunis forment la profondeur de champ (ou DoF, “Depth of Field” en anglais). Par exemple, de nuit, vous pouvez voir nets les objets situés entre 3 et 5 mètres. Tout ce qui est plus proche que 3 mètres ou plus éloigné que 5 mètres de vos yeux est flou. Votre profondeur de champ est donc de 2 mètres.

Plus le diaphragme est ouvert (c-à-d f est petit, pour un objectif), plus la profondeur de champ est réduite. C’est pourquoi, de jour (donc avec beaucoup de lumière), vous pouvez voir net sans efforts sur une grande plage de distance. Dans le tournage des films, il y a une personne dont le boulot est de mesurer la distance entre la caméra et le nez de l’acteur, pour s’assurer que la mise au point soit parfaite.

Plus un objet s’éloigne de cette distance optimale (appelée “plan focal”), plus il est flou. En fait, la profondeur de champ est l’espace de part et d’autre du plan focal dans lequel le flou des objets est considéré comme étant suffisamment faible pour être imperceptible. Dans Blender, cette distance au plan focal est appelée Dof Dist (pour “Depth of Field Distance”), et est réglée dans le contexte Editing (F9) de la caméra. Vous pouvez aussi choisir de garder la mise au point de la caméra en permanence sur un objet, en entrant le nom de celui-ci dans le champ Dof Ob.

Profondeur de champ et focale

La profondeur de champ varie également avec la focale de l’objectif. Avec les caméras, une focale de 35mm est une sorte de standard, car l’image qu’elle donne est semblable à celle de la vision humaine (c-à-d champ de vision similaire), et que les prises de vue peuvent être assez rapprochées du sujet. Dans Blender, utilisez les réglages Camera pour modifier la focale (35mm par défaut). Une focale plus longue prenant une image plus éloignée donne (plus ou moins) le même cadrage, mais avec une perspective différente que beaucoup de réalisateurs apprécient, car cela “condense” et adoucit (NdT : “to smooth a sweep” ???) la scène, puisqu’on est plus éloigné de l’action :

Focale de 35mm à 10 unités de distance.
Focale de 210mm à 60 unités de distance avec les mêmes position/rotation.
Focale de 210mm à 50 unités de distance, repositionné pour obtenir un cadrage similaire à celui de la vue en 35mm.


Zoom dans Blender

Zoomer permet d’agrandir une partie de l’image ; nous autres humains n’avons pas cette possibilité. Ah non, je retire ce que je viens de dire : nous devons juste nous lever et marcher vers ce que nous voulons voir de plus près (cependant, c’est plus du “travelling” que du “zoom”). Blender vous permet de faire les deux : vous pouvez rapprocher/éloigner la caméra d’un objet pour faire un “travelling” avant/arrière (“track in/out”), et/ou modifier sa focale pour (dé-)zoomer. Vous pouvez animer/contrôler tout ça en assignant des courbes Ipo à l’objet ou à la caméra, respectivement.

Profondeur de champ en image de synthèse

En image de synthèse (CG, pour “Computer Graphics”), il n’y a pas d’objectif ni d’iris physiques, donc la profondeur de champ est infinie et tous les objets sont toujours nets. Cependant, pour des raisons artistiques, nous voulons que nos personnages principaux soient nets et que tout le reste soit (légèrement) flou, de manière à ce que l’attention des spectateurs ne se disperse pas dans l’arrière-plan. Il est de surcroît plus facile de distinguer les personnages principaux quand ils sont les seuls à être nets. Donc, nous devons créer un Effet de Profondeur de Champ, lors du compositing, pour donner à nos images un aspect plus réaliste.