vendredi 30 janvier 2015

Les 50 plus grands visionnaires de la technologie 


Voici un groupe de personnes qui, à notre avis, comptent parmi les 50 plus importants intervenants des 50 dernières années d’innovation technologique. Sans l’imagination et le travail de ces innovateurs, les technologies que vous utilisez aujourd’hui n’auraient peut-être jamais été inventées. Nous vous présentons aujourd’hui le groupe des 25 premiers de ce palmarès.

Notre liste de visionnaires de la technologie met en vedette l’inventeur du stockage de données dans un format portable, et qui a pratiquement été rétrogradé pour son exploit, la femme qui a popularisé le terme bogue (bug), après qu’une mite se fut coincée entre deux contacts de relais, ainsi que celui qui, par son génie, a sans doute sauvé le jeu vidéo moderne en créant Jump Man.

Nous ne prétendons pas détenir la pure vérité. Si vous connaissez des candidats qui ont échappé à notre attention et qui méritent d’être reconnus, nous vous invitons à nous en faire part sur cette page. Vous pourrez également voter pour le visionnaire qui, à votre avis, a eu le plus d’impact sur l’industrie des TI.

Et surveillez votre courriel, nous vous présenterons bientôt la suite de cette série sur les visionnaires en technologies, avec notre liste de 30 visionnaires québécois qui ont marqué l’histoire des technologies au Québec.

Photo: Texas Instruments et Intel1. Jack Kilby et Robert Noyce Contrairement à la plupart des candidats ex aequo de notre liste, Robert Noyce  (à gauche) et Jack Kilby

n’ont pas travaillé ensemble, mais leur invention commune n’en est pas moins percutante. En 1959, les deux hommes ont produit les premiers circuits intégrés; Jack Kilby travaillait pour Texas Instruments alors que Robert Noyce oeuvrait chez Fairchild Semiconductor. Le circuit intégré a résolu le problème dimensionnel qui s’aggravait de jours en jours, car le besoin d’ajouter constamment de nouveaux transistors dans les appareils devenait de plus en plus urgent. En réussissant à insérer les transistors dans une seule puce, ils ont définitivement mis un terme à l’époque des ordinateurs de la taille d’une salle de travail. À terme, c’est le circuit à base de silicone de Noyce, et non le modèle en germanium de Kilby, qui s’est imposé et qui est devenu la norme encore utilisée aujourd’hui, mais les deux types se sont avérés déterminants pour l’avancement de la technologie. Kilby et Noyce sont souvent oubliés, mais l’importance de leur contribution à la technologie ne sera jamais assez évoquée. Rien sur ce palmarès n’existerait sans l’apport du circuit intégré.

Photo: Google2. Sergey Brin et Larry Page Comment souligner la contribution apportée à la technologie par Larry Page (à gauche) et Sergey Brin, les fondateurs de Google? L’entreprise est aujourd’hui la plus importante à Silicon Valley, même si les moteurs de recherche existaient bien avant l’arrivée de Google. Ce qui a marqué les inconditionnels de Google dès ses débuts, c’est le perfectionnement et la précision continus de son algorithme de recherche : alors que les autres moteurs de recherche étaient plutôt inondés de contenu indésirable, Google visait habituellement juste. L’entreprise avait également plus d’un tour dans son sac; l’univers à croissance exponentielle de Google compte maintenant des douzaines d’outils de travail et de divertissement, du traitement de texte à la vidéo, souvent gratuits, soutenu par son système publicitaire omniprésent.

Photo: Microsoft3. Bill Gates L’homme le plus riche au monde (selon les caprices quotidiens des marchés boursiers, en réalité), est aussi un est des artisans les plus renommés de la haute technologie. Il a quitté Harvard pour lancer Microsoft, une entreprise que tous les techniciens connaissent très bien, qu’ils l’aiment ou non. Ayant à coeur la direction de son entreprise, Bill Gates est étroitement impliqué dans le développement de produits Microsoft, et ce, depuis la fondation de l’entreprise il y a 30 ans. Même s’il conservera son titre de président de l’entreprise, Gates quittera ses fonctions d’administrateur en juillet prochain pour s’occuper à temps plein de la Fondation Gates, l’organisation sans but lucratif qu’il a fondée avec la rondelette somme de 29 milliards $ afin de venir en aide à la santé mondiale et à l’éducation. Ses détracteurs se plaisent à le décrire comme un tyran corporatif impitoyable, désireux de dominer l’industrie de la technologie d’une main de fer, alors qu’il fait indiscutablement preuve d’une conscience et d’une vision sociales.

Photo: Apple4. Steve Jobs Le roi d’une époque passée et future de Apple, Steve Jobs est connu de presque tous les technophiles. M. Jobs revendique deux événements technologiques historiques : la création des ordinateurs Apple d’origine, avec lesquels il a stimulé l’intégration de l’informatique domestique et, 20 ans plus tard, la sensibilisation à l’échelle mondiale du phénomène de la musique (numérique) portable. Apple n’a peut-être pas inventé le PC, et à fortiori le lecteur MP3, mais le célèbre « champ de distorsion de la réalité » de Steve Jobs a prouvé que le premier arrivé est parfois moins important que les réalisations qu’il a engendrées. Aujourd’hui, après plus d’une mort annoncée de son entreprise, Apple est plus grande que jamais, fière détentrice d’une part de marché jamais vue depuis les années 1980.

Photo: Wikimedia Commons5. Tim Berners-Lee Il n’y a absolument aucun doute. Sans cet homme et son invention de 1989, vous ne liriez pas ceci. Tim Berners-Lee est l’inventeur du Web. Berners-Lee a conçu le Web à sa façon, de la structure de l’adresse URL en passant par les hyperliens. Bien que cette conception ait été révisée en profondeur (en grande partie sous sa supervision, à titre de directeur du World Wide Web Consortium http://www.w3.org/), elle demeure utilisée aujourd’hui. Berners-Lee reste un joueur clé dans le développement des normes Web. Il travaille actuellement à la conception de ce que plusieurs considèrent comme la prochaine étape d’Internet .

Photo: BBN.com6. Ray Tomlinson En 1971, Ray Tomlinson a envoyé le message qui sera plus tard lu partout dans le monde: un courriel expédié d’un hôte du réseau Arpanet à un autre. Lorsque vous ouvrez votre boîte de réception et constatez qu’elle contient 112 courriels non lus, vous n’avez peut-être pas envie de remercier M. Tomlinson, mais imaginez le monde des communications sans courriel. C’est également Ray Tomlinson qui a eu l’idée d’utiliser le symbole @ pour séparer le nom d’utilisateur du nom de l’hôte dans une adresse électronique.

Photo: The Bootstrap Institute7. Douglas Engelbart Vite, cliquez sur ce lien. Vous comprenez à présent l’importance de la création de Doug Engelbart : la souris informatique. Engelbart a breveté l’idée de son « système pointeur bi-position X-Y » en 1967 et lui a donné le nom « souris » (inspiré de sa queue). Bien qu’il soit aujourd’hui difficile de travailler sans elle, la souris a mis plus d’une décennie avant de s’imposer, lorsque Apple a pris la décision de l’utiliser. Douglas Engelbart ne s’est pas arrêté à une invention, au contraire. Lui et son équipe de recherche ont mis au point un système de stockage en ligne primitif et ont même fait une démonstration de vidéoconférence en 1968.

Photo: Hewlett-Packard8. Bill Hewlett et Dave Packard Aucune entreprise n’a touché à autant de facettes de la technologie que les cerveaux de Dave Packard (à gauche) et Bill Hewlett, deux titans de Silicon Valley à l’origine d’une entreprise informatique gigantesque créée à partir de rien, si ce n’est que de courage et de débrouillardise. Tout d’abord responsable de la construction d’oscillateurs audio pour Walt Disney dans les années 1940, HP a poursuivi dans cette voie et a élaboré une vaste gamme d’appareils de test électronique avant de faire le saut en informatique vers les serveurs d’ordinateur, les ordinateurs de bureau, les calculatrices, les appareils photo et, bien sûr, les imprimantes. Après quelques années tumultueuses, HP est de retour au somment à titre de plus grande entreprise technologique au monde. Qui d’autre peut se vanter d’avoir vu son garage transformé en site historique national?

Photo: Makoto Mishida9. Shigeru Miyamoto L’industrie du jeu vidéo s’est effondrée au début des années 1980 et semblait en voie de disparition, telle une mode éphémère à la pet rock . Mais Shigeru Miyamoto, presque seul, a gardé l’industrie en vie grâce à la création du personnage animé Jump Man, qui s’est fait connaître peu de temps après sous le nom de Mario. L’immense influence de Makoto Miyamoto sur l’industrie du jeu vidéo, aujourd’hui directeur principal chez Nintendo, n’a jamais diminué depuis. Sa dernière création, la Wii Fit, vient d’arriver sur le marché nord-américain.

Photo: Wikimedia Commons10. Shawn Fanning Avec Napster , Shawn Fanning a lancé une technologie qui, selon certains prophètes de malheur, pourrait signifier la fin de l’Internet. Aujourd’hui, le trafic généré par les échanges des programmes de point à point utilise environ 70 % de toute la bande passante à haute vitesse. Selon AT&T, l’échange de point à point est la cause principale de la nécessité de moderniser radicalement son réseau, afin d’éviter la fin de l’Internet tel que nous le connaissons, d’ici 2010. Tout cela parce qu’un homme voulait offrir quelques grands succès à tout un chacun. Hé bien.

11. Gordon Moore On ne peut se tromper avec quelqu’un qui a établi sa propre loi scientifique, n’est-ce pas? La loi de Moore posée comme postulat en 1965, trois ans avant que Gordon Moore ne fonde une petite entreprise nommée Intel, a prédit que le nombre de composants d’une puce informatique doublerait tous les ans (plus tard, il l’amenda pour tous les deux ans). Comme le mentionne Intel, la loi de Moore reste le « principe directeur de l’industrie des semi-conducteurs ». En fait, tous les domaines de l’industrie des hautes technologies, des disques durs aux téléviseurs, confirment dans une certaine mesure l’impitoyable loi de Moore. Moore est toujours actif chez Intel, qui après 40 ans d’existence fait certainement partie des entreprises sans lesquelles Silicon Valley n’existerait tout simplement pas.

Photo: Bill Atkinson12. Bill Atkinson Parcourez le menu Fichier de votre PC, ouvrez une nouvelle fenêtre et remerciez Bill Atkinson de pouvoir le faire. Ses conceptions précoces d’éléments d’interface utilisateur tel que la barre de menu devinrent la norme des interfaces graphiques, non seulement sur les ordinateurs d’Apple, chez qui il travaillait, mais aussi sur tous les systèmes d’exploitation majeurs qui ont suivi. À titre de programmeur, Atkinson a conçu MacPaint, QuickDraw et HyperCard, une sorte de système Web primitif qui a largement inspiré la création du Webd’aujourd’hui. Après avoir fondé sa propre entreprise, General Magic, Bill Atkinson s’est presque retiré des technologies pour se consacrer au travail de photographe naturaliste.

Photo: The Case Foundation13. Steve Case Ne vous moquez pas. L’idée originale de Steve Case, America Online, était une grosse affaire au début des années 1990, Une époque idéale pour offrir des services d’initiation en ligne à des millions de gens intrigués mais un peu méfiants face à cette nouveauté qu’était le Web. AOL a popularisé plus que les salles de clavardage, qui la rendirent tristement célèbre. Créateur du jeuNeverwinter Nights – un des premiers jeux massivement multijoueur en ligne – Steve Case a été un des premiers champions utilisateurs d’avatars et a inauguré l’intégration des médias en ligne avec les grands médias traditionnels, ce dont on se souvient le plus aujourd’hui, en vendant son entreprise à Time Warner en 2001.Ce fut malheureusement un assez mauvais moment pour le faire, hélas.

Photo: Rico Chen14. Martin Cooper Vite, fouillez vos poches. Que vous transportiez un iPhone , unRazr ou un enV , vous le devez à Martin Cooper et à son brevet de 1973, précurseur du téléphone cellulaire tel que nous le connaissons aujourd’hui. Son invention, créée lorsqu’il travaillait chez Motorola, pesait alors environ 2 lb (900 g), et il a fallu attendre dix ans avant que le poids d’un téléphone cellulaire passe sous la barrière de 1 lb (450 g). Cooper est toujours actif dans l’industrie de la téléphonie. Son entreprise, ArrayComm, veille au développement de nouvelles antennes permettant aux cellulaires d’aujourd’hui, qui ne pèsent que 2 oz (55 g), de rejoindre leur réseau.

Photo: uWink15. Nolan Bushnell Atari est synonyme de jeu vidéo. Tellement que le nom demeure utilisé (bien que très éloigné de son fondateur Nolan Bushnell, créateur du jeu Pong et père incontestable du jeu vidéo), 36 ans après sa création. La vision de Bushnell, soit l’accès aux jeux vidéo à domicile, est un des rares exemples où le concept s’est concrétisé presque conformément aux plans originaux. Bien que la frénésie pour Atari soit maintenant chose du passé, Atari et Nolan Bushnell sont ceux qui ont ouvert la voie à toutes les consoles de jeu lancées ultérieurement.

Photo: Google16. Vint Cerf Un prix Turing, la médaille nationale de technologie et la médaille présidentielle de la liberté. Vint Cerf possède un des parcours professionnels les plus impressionnants de la haute technologie. Les travaux de Cerf, à titre de pionnier de l’Internet, se sont majoritairement déroulés dans les universités et les agences gouvernementales, ce qui a mené à la création du réseau Arpanet au début des années 1970, le précurseur du réseau Internet actuel. Aujourd’hui, Vint Cerf travaille pour… qui d’autre? Google.



Photo: IBM17. Don Estridge Le vétéran de IBM, Don Estridge , est largement reconnu comme « le père du PC », du moins dans son incarnation IBM. Estridge a mis au point un grand nombre de systèmes informatiques et s’est même amusé à travailler sur de l’équipement radar de la NASA. Il est davantage reconnu pour ses talents de directeur de l’équipe peu conventionnelle de 14 personnes responsable de la conception du PC d’IBM : une plateforme « ouverte » permettant l’utilisation de logiciels indépendants et compatible avec leurs mises à niveau, soit la norme actuelle de l’informatique commerciale. Don Estridge est décédé de façon tragique dans un accident d’avion en 1985 et n’a jamais goûté au succès généralisé qu’a suscité son invention.

Photo: Dell18. Michael Dell L’histoire de Dell Computer Corporation est célèbre et est devenue une légende dans l’univers des entreprises de haute technologie. Michael Dell a démarré son entreprise PC’s Limited à l’âge de 19 ans, depuis sa résidence à l’université du Texas. Il a finalement abandonné les études pour fonder l’entreprise Dell Computer, qui a connu une croissance fulgurante au cours de années 1990. La méthode de commercialisation de Dell a complètement révolutionné l’industrie : plutôt que d’offrir des ordinateurs à configurations prédéterminées, les appareils Dell étaient entièrement personnalisables et assemblés sur mesure. Par la suite, presque tous les compétiteurs fabricants de PC ont imité Dell… ou fermé leurs portes.

Photo: David Weekly19. Alan Kay Doté d’une polyvalence peu commune dans le domaine de la haute technologie, Alan Kay peut revendiquer au moins deux inventions déterminantes dans l’histoire de l’informatique. En effet, M. Kay a créé un des premiers ordinateurs portables utilisables : le Dynabook original de HP. Son idéal était de concevoir un ordinateur portable pesant moins de 2 lb (900 g). Nous n’y sommes pas encore, mais la contribution de Alan Kay au monde du logiciel, incluant la programmation par objet et la notion de fenêtres multiples se chevauchant dans une interface graphique, compte parmi les moments marquants de l’informatique.

Photo: Duncan Davidson20. Marc Andreessen Le navigateur Web Mosaic, conçu par Marc Andreessen, peut paraître vieillot aujourd’hui, mais les rouages du code Mosaic constituent toujours la norme des logiciels des navigateurs Web actuels. On peut parier sans trop se tromper que plusieurs autres créations d’Andreessen passeront aussi à l’histoire : Netscape, l’entreprise qu’il a fondée, a suscité la frénésie sur le marché boursier au cours des années 1990, et son site Web Ning gagne de plus en plus en popularité, servant de portail pour la création d’un réseau social traitant d’un thème déterminé. Marc Andreessen trouve même régulièrement le temps de raconter ce qu’il fait sur son blogue.

Photo: Martin Streicher, Linuxmag.com21. Linus Torvalds Linus Torvalds est le parrain de ce qui constitue peut-être le dernier et meilleur espoir d’une solution de rechange à Windows (outre les ordinateurs Apple que certains considèrent trop dispendieux). Le système d’exploitation Linux est en développement incessant depuis sa création par Torvalds en 1991, et ne cesse de gagner en popularité à chaque année. Après une longue attente, Linux a finalement franchi le seuil des salles de serveurs et atteint progressivement les ordinateurs de bureau, plus particulièrement les ordinateurs portables à faible coûts, tel que le Asus Eee PC. Le système d’exploitation occupe à présent plus de 2 % du marché des ordinateurs de bureau.

Photo: Microsoft22. Chuck Thacker Chuck Thacker a participé à une étonnante variété de projets de haute technologie, du développement de l’Ethernet jusqu’aux premières imprimantes laser. Cependant, son legs le plus durable est un produit qui n’a jamais été mis en marché : le légendaire Xerox Alto. Le Alto, conçu par Thacker, fut le premier ordinateur équipé d’une interface graphique (et d’une souris). Détail primordial : cet ordinateur a directement inspiré Apple pour la conception de son Macintosh, après que Steve Jobs eut rendu visite à ses amis chez Xerox. Thacker travaille aujourd’hui chez Microsoft.

Photo: Wikimedia Commons23. Bob Metcalfe La loi de Moore est peut-être plus connue, mais celle énoncée par Bob Metcalfe s’applique à plus grande échelle. Établie autour de 1980, la loi de Metcalfe suppose que la valeur d’un réseau de télécommunication est égale au carré du nombre de noeuds sur ce réseau. En d’autres termes, cela signifie que même une légère augmentation du nombre de réseaux le fait progresser énormément, étant donné le nombre accru de nouvelles connexions que chaque utilisateur peut faire. L’invention de l’Ethernet et la création de 3Com par Robert Metcalfe sont sans doute des moments déterminants de l’évolution des hautes technologies, mais sa loi éponyme, utilisée à présent pour quantifier la valeur des espaces comme Facebook ou MySpace, survivra longtemps à la disparition des réseaux câblés.

Photo: IEEE24. Vic Hayes Le Wi-Fi a longtemps été une technologie aux normes très confuses, et sans Vic Hayes, elle n’aurait peut-être jamais été établie. Sans Hayes, nous aurions peut-être assisté à un guerre ouverte à l’image du Blu-ray contre le HD-DVD dans la lutte entre les multiples normes sans fil incompatibles. En 1990, Vic Hayes a fondé le groupe de travail Wireless LAN et convaincu quelque 130 entreprises à travailler ensemble pour développer des normes libres. Le résultat : la norme 802.11 et l’abaissement d’une barrière très solidement érigée. À l’heure actuelle, Hayes contribue encore au développement du Wi-Fi.

Photo: Dan Bricklin25. Dan Bricklin et Bob Frankston Les services de comptabilité du monde entier seraient perdus sans le travail de Dan Bricklin(à gauche) et de Bob Frankston, qui ont travaillé ensemble en 1979 audéveloppement de VisiCalc, la première feuille de calcul au monde et probablement la première application phare créée pour un ordinateur personnel. Le programme de 27 Ko peut toujours tourner sur les PC d’aujourd’hui, et sa simplicité explique en grande partie la raison pour laquelle les premiers PC se sont si bien vendus, spécialement auprès de la clientèle d’affaires. Que nous soyons comptable ou non, nous devons probablement tous une fière chandelle à VisiCalc. Après tout, si ce n’était pas de Bricklin et Frankston, vous ne recevriez peut-être pas votre chèque de paie régulièrement.

Vous avez manqué la première partie de notre palmarès? Découvrez nos choix des visionnaires de Grace Murray Hopper à Ubi Mander en passant par Peter Norton en vous rendant sur cette page.

Êtes-vous d’accord avec nos choix? Votez pour le visionnaire qui, à votre avis, a eu le plus d’impact sur l’industrie des TI en vous rendant sur cette page. Ou encore, suggérez-nous un visionnaire que nous avons oublié. Profitez-en pour nous faire part de vos commentaires.

Vision par ordinateur

  Les applications vont de la vision industrielle (par exemple dans l’industrie de fabrication de bouteilles), à la recherche dans le domaine de l’intelligence artificielle et des ordinateurs ou robots capables de « comprendre » le monde qui les entoure. La vision par ordinateur et la vision industrielle sont des domaines qui se croisent ou se confondent assez souvent.Dans les deux cas, l'image est parfois acquise dans des gammes de longueur d'onde que l'homme ne perçoit pas  ou à travers une paroi et parfois par des capteurs spéciaux, par exemple adaptés à des milieux extrêmes tels que l'intérieur de certaines installations nucléaires, fours industriels, accélérateur de particule, etc.).

En tant que discipline scientifique, la vision par ordinateur traite de la théorie qui se trouve derrière les systèmes de traitement de l'information (information contenue dans les images ou pouvant être déduite d'une analyse plus contextuelle). Les données extraites le sont sous différentes formes : séquences vidéo, vues depuis différentes caméras, données multidimensionnelles provenant d'un scanner (scanner médical ou industriel).
En tant que discipline technologique, la vision par ordinateur cherche à appliquer ses théories et ses modèles à différents systèmes. Quelques exemples de systèmes d’application de la vision par ordinateur :
  • Procédés de contrôle, p. ex. dans la robotique industrielle
  • Navigation, p. ex. dans un véhicule autonome ou un robot mobile
  • Détection d’événements, p. ex. pour la surveillance ou le comptage automatique de personnes
  • Organisation d'informations, p. ex. pour indexer des bases de données d’images et de suites d’images
  • Modélisation d'objets ou d'environnements, p. ex. dans l’analyse d’image médicale ou la topographie
  • Interaction, p. ex. en tant que dispositif d’entrée pour une interaction homme-machine
  • Inspection automatique, p. ex. dans des domaines de production
On considère comme sous-domaines de la vision par ordinateur la reconstruction de scène, la détection d’événements, la détection d'intrusion, le match moving, la reconnaissance d'objets, l’estimation de mouvement, ainsi que certaines formes d'apprentissage automatique, d'indexation, de restauration d'image, etc.
Dans la plupart des applications pratiques de la vision par ordinateur, les ordinateurs sont préprogrammés pour effectuer une certaine tâche, mais les méthodes basées sur l’apprentissage sont de plus en plus populaires.
Les problèmes posés par la modélisation de la vision sont loin d'être résolus.
source :https://www.google.com/search?q=vision+par+ordinateur&biw=1920&bih=924&source=lnms&tbm=isch&sa=X&ei=c6HLVJzNBMe_OqLtgKAF&sqi=2&ved=0CAYQ_AUoAQ#imgdii=_&imgrc=pWmJIaaAmCUT7M%253A%3BmPln960YKtt5zM%3Bhttp%253A%252F%252Fuploads.siteduzero.com%252Ffiles%252F345001_346000%252F345216.jpg%3Bhttp%253A%252F%252Fopenclassrooms.com%252Fcourses%252Fintroduction-a-la-vision-par-ordinateur%252Fqu-est-ce-qu-une-image%3B512%3B512

mardi 27 janvier 2015

photographie

Le mot « photographie » a été imaginé par John Herschel et provient de deux racines d'origine grecque :
  • le préfixe « photo- » (φωτoς, photos : lumière, clarté) — qui procède de la lumière, qui utilise la lumière ;
  • le suffixe « -graphie » (γραφειν, graphein : peindre, dessiner, écrire) — qui écrit, qui aboutit à une image.
Littéralement : « peindre avec la lumière ». Le terme plus court de « photo » est très fréquemment utilisé. Dans le cas où l'on parle d'une image photographique, on emploie aussi souvent les termes « image » ou « vue », et, mais de moins en moins depuis l'avènement de la photographie numérique, « tirage » ou « agrandissement ».
La personne utilisant la technique photographique lors de la phase de prise de vue se nomme le photographe. Il existe de nombreux métiers connexes à la prise de vue. Par exemple, une personne travaillant dans un laboratoire pour procéder à l'agrandissement de négatifs se nomme le tireur.

Une image est une représentation visuelle, voire mentale, de quelque chose (objet, être vivant et/ou concept). Elle peut être naturelle (ombrereflet) ou artificielle (peinturephotographie), visuelle ou non, tangible ou conceptuelle (métaphore), elle peut entretenir un rapport de ressemblance directe avec son modèle ou au contraire y être liée par un rapport plus symbolique. Pour la sémiologie ou sémiotique, qui a développé tout un secteur de sémiotique visuelle, l'image est conçue comme produite par un langage spécifique. Une des plus anciennes définitions de l'image est celle de Platon.« j'appelle image d'abord les ombres ensuite les reflets qu'on voit dans les eaux, ou à la surface des corps opaques, polis et brillants et toutes les représentations de ce genre ».

vision du monde

graphisme

Le graphisme est une discipline qui consiste à créer, choisir et utiliser des éléments graphiques (dessins, caractères typographiques, photos, couleurs, etc.) pour élaborer un objet de communication et/ou de culture. Chacun des éléments est symbolique et signifiant dans la conception du projet, selon les axes définis éventuellement avec d'autres intervenants du domaine de la communication, dans le but de promouvoir, informer ou instruire.
Selon Annick Lantenois, « le design graphique peut être défini comme le traitement formel des informations et des savoirs. Le designer graphique est alors un médiateur qui agit sur les conditions de réception et d’appropriation des informations et des savoirs qu’il met en forme. » Selon ses domaines d'intervention (illustration, affiche, communication d'entreprise,presse, édition, packaging, publicité, design web, signalétique, identité visuelle, etc.), il fait partie de la chaîne graphique liée à l'imprimerie ou à d'autres médias.
Bien qu'actuellement le terme design graphique soit parfois jugé trop vague par certains (particulièrement en France et en Suisse), il devient de plus en plus populaire dans les pays de la francophonie et est généralement préféré au terme « graphisme » au Québec et dans le Canada francophone.
source :https://www.google.com/webhp?sourceid=chrome-instant&ion=1&espv=2&ie=UTF-8#q=Graphisme

optique

L'optique est la branche de la physique qui traite de la lumière et de ses propriétés, du rayonnement électromagnétique, de la vision ainsi que les systèmes utilisant ou émettant de la lumière. Du fait de ses propriétés ondulatoires, le domaine de la lumière peut couvrir le lointain UV jusqu'au lointain IR en passant par les longueurs d'onde visibles. Ces propriétés recouvrent alors le domaine des ondes radio, micro-ondes, des rayons X et des radiations électromagnétiques.

L'optique géométrique introduite par Alhazen s'est développée sur la base d'observations simples et repose sur deux principes et des lois empiriques :
  • la propagation rectiligne dans un milieu homogène et isotrope ;
  • le principe du retour inverse qui exprime la réciprocité du trajet lumineux entre source et destination ;
  • les lois de Snell-Descartes pour la réflexion et la réfraction.
La résolution des problèmes se fait à l'aide de constructions géométriques (tracés de droites matérialisant les rayons, calculs d'angles), d'où le nom d'optique géométrique. Elle donne de bons résultats tant que l'on ne cherche pas à modéliser des phénomènes liés à la polarisation ou aux interférences et qu'aucune dimension du système n'est comparable ou inférieure à la longueur d'onde de la lumière utilisée.
L'optique géométrique permet de retrouver la quasi-totalité des résultats concernant les miroirs, les dioptres et les lentillesou leurs combinaisons en doublet et systèmes optiques constituant notamment les instruments d'optique.
De plus, dans le cadre de l'approximation de Gauss, l'optique géométrique donne des relations mathématiques linéaires permettant l'usage d'outils mathématiques tels que les matrices et la systématisation des calculs par ordinateur.

source :https://www.google.com/webhp?sourceid=chrome-instant&ion=1&espv=2&ie=UTF-8#q=Optique

Troisième oeil

Le troisième œil (également dit « œil intérieur » ou « œil de l’âme ») est une métaphore mystique et ésotérique d'origine orientale qui désigne, au-delà des yeux physiques, un troisième regard, celui de la connaissance de soi. Dans certaines traditions, le troisième œil est symboliquement placé sur le front, entre les sourcils.En Inde, le troisième œil est appelé jnana chakshu, l’œil de la connaissance, ou encore gyana chakshu. Il est localisé au niveau du sixième chakra, dit « ajna chakra ». Les divinités ou les saints sont représentés avec un point ou une marque sur le front à cet effet.Dans le bouddhisme c'est l'Urna qui symbolise cet œil. On le retrouve sur les statues des bouddhas et des bodhisattvas des iie siècle et iiie siècle Dans les Upanishads, un être humain est décrit comme une cité aux dix portes : les neuf portes (2 yeux, 2 narines, 2 oreilles, bouche, urêtre, anus) conduisent au monde des sens, le troisième œil est la dixième porte qui conduit au monde intérieur.




source : https://www.google.com/webhp?sourceid=chrome-instant&ion=1&espv=2&ie=UTF-8#q=troisi%c3%a8me%20oeil

mercredi 21 janvier 2015

Vision nocturne

L'œil a toujours des limites physiques de sensibilité, mais certains animaux voient bien mieux que les humains dans le noir (la chouette ou le lynx par exemple, qui sont des animaux nocturnes ou semi-nocturnes).
Cette capacité dépend d'un type particulier de cellules de l'œil, situées dans la rétine (les cellules en bâtonnet, qui sont plus sensibles à la lumière, et connectée à une partie du cerveau plus sensible aux mouvements, notamment ceux perçus dans le champ latéral de vision, mais qui ne perçoivent pas les couleurs ; elles sont également beaucoup plus sensibles à l'éblouissement).
Cette capacité dépend aussi de L’architectonique de la rétine qui varie selon les espèces, et d'autres facteurs impliquant parfois l’œil et le cerveau déterminent aussi la qualité de la vision la nuit, dont par exemple la taille de l’œil et du cristallin, la sensibilité générale de la rétine (en termes de réponse à l'excitation lumineuse et à la fatigue rétinienne), le temps delatence sensorielle et d'adaptation de l'œil aux variations de luminosité. L’œil n'est pas assimilable à un instrument d’optique ; ses relations avec le cerveau qui interprète les images formées sur la rétine (qui est un capteur biologique inhomogène et anisotrope) et guide les mouvements de l’œil ont aussi une importance.
On connait depuis longtemps des cas humains de « cécité des couleurs » ou achromatopsie, due à un anomalie de la rétine (cônes non fonctionnels) ou parfois due à une lésion du système nerveux ou du cerveau qui ne peut plus alors traiter l'information sur la couleur. Certaines personnes ne distinguant pas les couleurs voient mieux dans le noir. Il s'agit souvent d'hommes, car les gènes codant pour les opsines rouges et vertes sont situés sur le chromosome Xq28

source : http://fr.wikipedia.org/wiki/Vision_de_nuit
            http://www.astroshop.de/fr/vision-nocturne/22

Rêves

Le rêve désigne un ensemble de phénomènes psychiques éprouvés au cours du sommeil.
Au cours de l’Histoire, différents domaines de la connaissance se sont intéressés au rêve, y cherchant du sens ou une fonction.
Le rêve se distingue de l’hallucination et de la rêverie qui, eux, sont vécus à l’état éveillé. Le nom scientifique de l’étude des rêves est l’onirologie.
Au réveil, le souvenir du rêve est souvent lacunaire, parfois inexistant. Il est cependant possible d’entraîner la remémoration onirique. Les rêves sont les plus élaborés pendant les phases de sommeil paradoxal.


source :http://fr.wikipedia.org/wiki/R%C3%AAve
            www.google.com/search?q=Rêves&es_sm=91&source=lnms&tbm=isch&sa=X&ei=aBDGVJ-                     ZAcKxygPiioDYCQ&ved=0CAgQ_AUoAQ&biw=1920&bih=924

Illusions

Une illusion d'optique est une illusion qui trompe le système visuel humain  et aboutit à une perception déformée de la réalité. Les illusions d'optique peuvent survenir naturellement ou être créées par des astuces visuelles spécifiques qui permettent de mettre en évidence les principes de fonctionnement du système visuel humain.

[damier..PNG]

L'illusion résulte d'une mauvaise analyse par le système visuel des informations qui lui parviennent. Cette erreur d'analyse peut donc entraîner la perception d'un objet qui n'est pas présent, à l'inverse nous rendre « aveugle » à un objet pourtant présent, nous donner une image faussée de la réalité, etc.Ainsi, sur l'image de droite, les cases A et B du dessin semblent être peintes de deux teintes de gris différentes alors qu'en réalité, si la luminance sur la photographie est mesurée, les deux gris sont parfaitement identiques. Dans ce cas précis, cet exemple met en évidence la propension du système visuel à compenser les variations lentes de luminosité ou à percevoir les teintes et les couleurs relativement à leur environnement .A contrario, les mirages ne sont pas à proprement parler des illusions. Il ne s'agit pas d'une fausse interprétation mentale d'une réalité mais de la perception d'un phénomène qui existe bel et bien : le tremblement de l'air ou les reflets d'eau dus à la chaleur sont des réalités optiques et non des illusions, d'ailleurs la trace photographique peut être gardée. La seule illusion consisterait à interpréter ces images perçues comme les images troubles d'un lac ou d'une mer.


source : https://www.google.com/search?q=R%C3%AAves&es_sm=91&source=lnms&tbm=isch&sa=X&ei=aBDGVJ-ZAcKxygPiioDYCQ&ved=0CAgQ_AUoAQ&biw=1920&bih=924#tbm=isch&q=illusion+d%27optique
http://fr.wikipedia.org/wiki/Illusion_d%27optique

vendredi 9 janvier 2015

Associations libres du mot "vision"

Le thème que j'ai choisi "vision" comprend plusieurs sujets important que je vais essayer de discuter dans ce blog.
Voici quelques exemples :



                Optique                            Visionnaires célèbres                                

      Troisième oeil                            

Illusions                                                         Vision du monde

Photo: Vision


Photographie                                     Vision numérique

                              Vision nocturne                      Graphisme


                  Rêves                                                         Future



Source de l'image: http://www.paris-neuroscience.fr/fr/evenement/voir-et-revoir-vision-therapie-et-vision-artificielle