Suivez-nous

iPhone

Premiers exemples de photos prises avec le mode portrait de l’iPhone 7 Plus

Il y a

 

le

 

iphone-7-plus-camera.jpgLa bêta d’iOS 10.1 qui vient d’être mise à disposition des développeurs intègre le très attendu
mode portrait photo de l’iPhone 7 Plus dont Apple avait fait
la démo durant la keynote de rentrée.

Ce nouveau mode portrait photo est réservé à l’iPhone 7
Plus
, il utilise le téléobjectif de celui-ci pour permettre aux
utilisateurs de prendre des photos de portrait avec un effet
"Bokeh"
, à savoir un sujet net avec un arrière-plan flou. En voici
quelques exemples provenant de testeurs.

Deux photos prises par le site TechCrunch :

mode-portrait-iphone-7-plus-0.jpg

mode-portrait-iphone-7-plus-1.jpg

Cela fonctionne aussi avec les objets via 9to5mac :

mode-portrait-iphone-7-plus-3.jpg

Une comparaison intéressante du site iMore entre l’iPhone 7 Plus (1re photo) et un
appareil photo reflex Canon Rebel T4i (2e photo) :

mode-portrait-iphone-7-plus-4.jpg

mode-portrait-iphone-7-plus-5.jpg

Mais aussi une vidéo de 9to5mac montrant le fonctionnement de ce nouveau
mode de prise de vue :

Ce mode de prise de vue utilise simultanément le téléobjectif 56mm et
l’objectif grand-angle 28mm de l’iPhone 7 Plus pour générer un effet de
profondeur de champ
. D’après les testeurs, pour obtenir de bons
résultats, il est nécessaire d’avoir assez de lumière et que le sujet ne se
trouve ni trop loin ni trop près de l’objectif.

Dans certaines conditions, le mode portrait ne fonctionne pas correctement,
mais il faut garder à l’esprit qu’il s’agit d’une première bêta et que les
prochaines versions vont améliorer les résultats obtenus avec ce nouveau mode
de prise de vue. Apple a annoncé que le mode portrait serait disponible
d’ici la fin de l’année, on espère le mois prochain.

i-nfo.fr - App officielle iPhon.fr
Par : Keleops AG
4.4 / 5
16,2 k avis

Rédacteur en chef adjoint, aussi connu sous le pseudo de Teza. Ancien journaliste dans les jeux vidéo, qui baigne dans la tech et les produits Apple depuis son tout premier iPhone 3GS en 2009. Il a depuis travaillé pour plusieurs sites tech américains et maintenant pour iPhon.fr. Accessoirement YouTubeur et spécialiste des produits Apple sur la chaine MobileAddict. Pour me contacter : maxime[a]iphon.fr

12 Commentaires

12 Commentaires

  1. DOM (posté avec l'app i-nfo.fr V2)

    22 septembre 2016 à 11 h 43 min

    C’est bien plus beau sans l’arrière plan flouté !

  2. Vee (posté avec l'app i-nfo.fr V2)

    22 septembre 2016 à 13 h 13 min

    À voir si la version officielle sera meilleure mais là honnêtement je trouve
    ça très moyen. Ça fait très artificiel.
    Sur la photo de 9to5 par exemple, sur le dessus de la boite à gauche il y a un
    raté.
    Sur la photo de la jeune fille on voit bien qu’il y a des ratés au niveau des
    cheveux.
    Enfin on voit très nettement la différence avec la photo prise avec le reflex.
    Les cheveux se détachent parfaitement de l’arrière plan, y compris les petits
    cheveux qui volent.

    Bref c’est une bonne idée d’Apple mais peu de chance d’avoir un vrai bon
    résultat je pense. Mais ça reste une première bêta donc à voir.

  3. bebi27

    22 septembre 2016 à 11 h 54 min

    Pas fan de ces flous

  4. Insomnia (posté avec l'app i-nfo.fr V2)

    22 septembre 2016 à 12 h 21 min

    Euh pas vraiment utile mais offrir un double objectif pour ne pas offrir
    cette option dès le départ ça fait pas top.
    Par contre la News a tendance à aller un peu loin on a l’impression que tous le
    monde attends cette option je rappel que nul besoin du 7 plus pour le faire il
    existe des apps qui le font très bien

  5. Efloh

    22 septembre 2016 à 13 h 49 min

    Et puis surtout, aucun effet de bokeh avec l’iphone, juste un arrière plan
    flouté.

  6. Xic (posté avec l'app i-nfo.fr V2)

    22 septembre 2016 à 11 h 09 min

    On constate que le sujet préfère se faire photographier par un reflex qu’un
    smartphone. ˆˆ

  7. Shaglui

    22 septembre 2016 à 16 h 17 min

    Pas beaucoup de photographes dans les commentaires… En revanche des gens
    pressés de donner leur avis pas très éclairé, ça ne manque pas… Internet
    👍

    Et pourtant si, c’est bien un effet bokeh qui est appliqué sur l’image et
    pas juste un flou d’arrière plan (voir le lien vers la dernière photo que je
    donne plus bas). Alors certes la profondeur de champ n’est pas réellement
    donnée par le diaphragme de l’objectif mais le rendu est en tout point
    similaire. Le tout dans quelques centaines de grammes toujours présents dans
    nos poches.

    Et quand on sait qu’il faut, pour faire de beaux bokehs, des objectifs
    particulièrement lumineux (f/1.2, f/1.4, f/1.8), donc particulièrement
    imposants, lourds et chers, on peut saluer le résultat obtenu par Apple avec
    cette utilisation très intelligente du parallaxe des deux objectifs permettant
    de créer une VRAIE depth map sur 9 niveaux de profondeurs.

    Pour avoir la même chose dans un Photoshop il faudrait passer un temps fou à
    détourer le(s) sujet(s) et jouer sur les masques de fusion.

    Les premiers essais de TechCrunch sont particulièrement probants (manque
    encore des photos avec de fortes sources de lumière en arrière plan pour voir
    quelle qualité de "rendu" donnerons les algorithmes d’Apple, mais gageons que
    ça sera du niveau des meilleurs bokehs obtenus avec les meilleurs diaphragmes à
    8 ou 9 lames).

    Cette photo avec la grille sur le coté est vraiment très réussie et permet
    de voir que le détourage, qui n’en est pas un, est très performant et
    s’accommode tout à fait de cette difficulté :

    http://tinyurl.com/h63p7vz

    Exactement pareil avec celle-ci :

    http://tinyurl.com/zmrqumq

    Une dernière photo qui démontre bien toute la puissance du mapping de
    profondeur :

    http://tinyurl.com/hwmkkl7

    Bref, le bokeh est un peu le Saint Graal en photographie et Apple nous
    l’amène directement dans la poche avec l’iPhone. Personnellement j’en suis très
    content et je suis vraiment préssé de pouvoir utiliser cette fonction.

  8. Elgeeko

    22 septembre 2016 à 16 h 27 min

    Mon Huawei P9 fait ca très bien aussi, avec aussi 2 capteurs. La grosse
    différence c’est qu’il coute 550euros et est sorti il y a 3 mois. Pas de blabla
    inutile iOs/Android, je sais de quoi je parle j’ai eu des iphones depuis
    l’iPhone 1 en 2007 mais là faut arreter. Apple n’invente plus rien, il copie et
    fait une grosse campagne de pub genre "on a fait une révolution". Et pour les
    scéptiques, allez essayez un Huawei en boutique, vous verez l’interface
    graphique ne vous déroutera pas par rapport à votre iPhone.

  9. Shaglui

    22 septembre 2016 à 19 h 53 min

    @Elgeeko
    Sauf qu’avec Huawei ça donne un résultat à la truelle :

    http://tinyurl.com/zp2moks

    Et encore, c’est insultant pour les truelles du monde entier.

    Avec Apple on est TOUJOURS au summum de l’état de l’art, TOUJOURS !

    Sinon tu es au courant qu’Apple a racheté LinX Imaging pour 20 millions de
    pesos dès début 2015 ?

    Qu’ils ont 800 ingénieurs qui bossent rien que sur l’appareil photo de
    l’iPhone ?

    Qu’ils ont été les premiers à sortir un appareil photo numérique grand
    public en 1994 avec le QuickTake ?

    Je ne suis pas un robot

  10. Efloh (posté avec l'app i-nfo.fr V2)

    22 septembre 2016 à 22 h 54 min

    @Shaglui : super, champion ! Tu as bien compris les promesses d’Apple, et
    ils y parviendront peut être bientôt, vu que l’algorithme apprend. En
    attendant, sur les photos montrées dans cet article, le résultat est bien plus
    proche d’un détourage flou gaussien que du bokeh produit par un diaphragme 8 ou
    9 lames. J’en suis navré, ça risque de te peiner…

  11. Shaglui

    23 septembre 2016 à 14 h 27 min

    @Efloh
    Hé, tu me causes meilleur mon gars ! J’suis un ouf moi, j’vais t’déglinguer !
    😁😉

    Plus sérieusement. Ce que toi tu n’as pas compris les aspects techniques du
    problème, mais peut-être n’as-tu pas les compétences pour y parvenir (si c’est
    le cas, plutôt que de railler les autres, ferme-là, c’est mieux).

    Ce que fait Apple n’a rien à voir avec un simple flou gaussien comme tu ne
    cesses de la répéter (surtout si tu as des arguments pour contredire les miens
    ne te gênes pas, parce que pour l’instant, à part me dire comme un gamin de
    primaire que tu es navré de me peiner… ).

    Apple obtient avec l’utilisation des deux objectifs une vraie carte de
    profondeur sur 9 niveaux (un peu comme avec un Kinect). Et c’est sur cette
    depth map qu’ils se basent pour reproduire le flou (les 9 flous donc en
    réalité).

    Pour obtenir le même rendu avec un flou gaussien dans Photoshop il faudrait
    donc non seulement créer 9 masques de fusion, chacun ayant sa propre valeur, et
    bien entendu que chacun de ceux-ci soient appliqués après avoir
    consciencieusement détouré chaque plans en fonction de leur profondeur. SAUF
    QUE…

    Sauf que même en faisant ce travail colossale tu n’aurais aucune information
    réelle de la profondeur. Tu ne pourrais que te baser sur une estimation au
    doigt mouillé de cette profondeur. Celle d’Apple est réelle :

    http://tinyurl.com/jakv6ba

    A toi la parole… Ou pas…

  12. Thebel (posté avec l'app i-nfo.fr V2)

    24 septembre 2016 à 13 h 11 min

    Et Ben dis donc il est franchement mal réglé ce reflex Canon. Le gars s’est
    visiblement vautré sur la prise de vue! Quel objectif , raw ou pas ? Bref
    comparatif sans aucun intérêt.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Dernières news

Les bons plans