Un coup de langue sur l’Oculus Rift


Complètement par hasard, j’ai pu passer quelques minutes avec un Oculus Rift.

Le casque est léger et pas inconfortable, et isole très bien du reste du monde, allant dans le sens de l’objectif d’immersion du produit. L’image n’est pas en haute résolution, et comme l’écran est très proche des yeux, on voit les pixels assez grossièrement, surtout en comparaison des écrans HD des dispositifs mobiles actuels. L’image est également un peu saccadée.

Il faut dire que j’étais sur un prototype destiné aux dev.

Mais si on met de côté ces problèmes qui sont naturels sur un dispositif en cours d’élaboration, le résultat est très prometteur. Malgré une vision loin des 180° (on est plus proche du casque de paintball), l’angle est asez confortable et on ne se sent pas trop bridé. Tourner la tête fait changer l’angle de vision de manière naturelle et fluide, et l’expérience est particulièrement bluffante quand on se retourne pour regarder derrière soit.

Le plus fun, c’est la sensation de vitesse. Une accélération avec pour seul repère les lunettes donne vraiment ce sentiment grisant qu’on a IRL.

Qui dit nouvelle techo dit nouvel apprentissage. Le corps perd en effet complètement ses repères. D’une part, on ne voit pas ses propres membres bouger. D’autre part, on voit un mouvement que l’oreille interne ne subit pas, et je paries sur des bonnes nausées pour les gens sensibles au mal des transports.

Désolé, je n’ai pas d’image de la scène. Comme je le disais, ça s’est fait vraiment à l’arrache, donc j’avais rien sur moi pour immortaliser le moment.

Dans tous les cas, mes fantasmes d’utilisation du dispositif comme station de travail portable ont été tués dans l’oeuf. On ne peut clairement pas dev avec ça pour le moment.

Par contre, pour un FPS ou un survival horror, ça peut donner un truc fantastique.

11 thoughts on “Un coup de langue sur l’Oculus Rift

  • mat

    Tiens c’est rigolo. J’en ai testé un pour la première fois hier, sur un salon avec un prototype pour développeur. C était pas sur Lille par hasard ?

    J’ai été bluffé par l’immersion, les mouvements de la tête sont retranscrits fidèlement. C’est très prometteur.

    Mais j’ai tout de suite eu la nausée. J’ai pas eu le temps d’étudier ça d’un peu plus près alors je ne sais pas trop a quoi c’est du : la qualité de l’écran doit y être pour beaucoup (on voit vraiment chaque pixels et il y a de l’aliasing), le système de lentilles était peu être mal réglé (je pense qu’il faut l’adapter a chaque personne), la scène qui bougeait vraiment beaucoup…

    En tout cas je me demande vraiment quelle pourrait être l’utilisation hors des jeux (bon c’est déjà pas mal hein ^^) ?

    Petit coup de pub perso : avec des potes on avait essayé de faire un dispositif d’immersion dans le même genre avec un arduino et un écran de recul de voiture. Pour les sources c’est par là https://github.com/TurpIF/Togetic

    C’est tout en python, on voit en 2d et sans système compliqué de lentilles comme sur l’occulus donc l’écran doit être a une 20aine de cm des yeux, on a moins l’impression d’immersion mais on voit pas les pixels :)

    Donc oui on avait pas d’idées précises sur l’utilisation, on est open sur des propositions :)

  • groug

    Difficile de ne pas craquer, le kit de dev n’étant “qu’à” 350$.
    Pour info, le proto du kit de dev est ancien, avec une basse réso. Ils ont annoncé il y a quelques jours une pénurie de certaines pièces matérielles qui devraient sûrement annoncer une update du proto de dev avec le nouvel écran.
    T’as pu tester quoi ? Je suis jaloux :)

  • Sam Post author

    Si je commence à parler des démos que j’ai tester je vais me faire griller :)

  • Pwet

    hors-sujet, mais ça fait plusieurs fois que je tombe sur la version mobile du blog, alors que je viens ici sur un ordinateur, comment ça se fait?

  • Anb

    Ils ont annoncé un nouveau proto au CES, meilleure résolution et surtout la prise en compte de la translation via une caméra.

    En gros, le prototype de dev ne gère pas le déplacement de la tête d’avant en arrière, ce qui apparemment participe pour beaucoup à la sensation de nausée.

    Il me semble qu’ils ont également travaillé sur l’affiche d’objets statiques (popups, hud) qui n’était pas vraiment adapté au début.

    @Sam: autant pour tout ce qui est simulation je suis comme un gosse début décembre, pour une stations de travail, je ne vois pas du tout ce que tu y trouvais comme intérêt ?

  • Sam Post author

    @Pwet : bug qu’on ne va pas corriger.

    @sam : très simple, quand tu es en déplacement, ça aurait pu te faire un gros écran pour travailler plutôt qu’un petit écran de portable. Ou alors pour bosser dans les transports (le ridicule ne tue pas, mais la place pour poser son portable…). J’avais noté que si on bougeait son torse l’oculus ne le détectait pas, effectivement ça peut ajouter au malaise.

  • kontre

    Ce que je verrais comme avantage pour une station de travail, c’est l’équivalent d’un écran (virtuel) beaucoup plus grand.
    La 3D pourrait aider à mettre en évidence les structures du code ou des données (genre tilt de Mozilla).

    Par contre toute la journée avec un gros casque sur le crâne… J’ai déjà des lunettes avec des verres assez épais et ça m’arrive d’avoir mal au nez.

  • Sam Post author

    Oui le confort est un problème. Par contre tu peux avoir un écran gigantesque avec l’oculus rift, puisque tu peux imaginer une dalle de 3 m que tu parcours en tournant la tête.

  • groug

    @Pwet : ça m’arrive fréquemment aussi. La solution, c’est de ne lire qu’avec un mobile :p (ou de faire quelques refreshes)

  • mat

    Je vois pas trop comment on peut l’imaginer pour coder par exemple ?
    Ok, l’écran gigantesque et portable c’est pas mal, mais comme c’est totalement immersif, tu vois rien autour de toi par définition.
    Donc il suffit que tu enlève les mains de ton clavier pendant un peu de temps et tu va le chercher comme un con pendant 1 min sans le retrouver :)

    Après, c’est sur que si un jour ils mettent un écran où on peu lire dessus correctement (et ça devrait arriver avec les nouvelles versions), on pourrait imager des nouvelles façon de faire de la revue de code ou l’analyse de site / code (comme le dit Kontre avec Tilt).

    Mais pour écrire, il faudrait utiliser autre chose qu’un clavier (avec des gestes ou un truc dans le genre…), mais est-ce que ça serait aussi productif ?

    Après, pour faire de l’analyse / visu de grandes quantités de données (c’est plus en rapport avec mon domaine) l’immersion pourrait changer pas mal de choses.

    @Pwet, groug : j’ai jamais eu le problème encore. Sur mon téléphone ça charge un coup le mode mobile un coup le mode bureau. Mais sur mes ordis toujours le mode bureau…

Comments are closed.

Des questions Python sans rapport avec l'article ? Posez-les sur IndexError.