Yvanoph Karim Modérateur ABC du Web Karim Yvanoph WebMaster 3Alannet webmaster@abc-du-web.com BP 116 7080 Menzel JEMIL Gouvernorat de BIZERTE Tunisie Yvanoph www.abc-du-web.com 0021625332209
Retour à l'Accueil du Mode d'Emploi du Forum XWebDesignor ?
   Accueil   Aide Rechercher Tags Identifiez-vous Inscrivez-vous  
Pages: [1]   Bas de page
  Imprimer  
Auteur Fil de discussion: [SEO] - Les pièges à éviter ABSOLUMENT ?  (Lu 3853 fois)
yvanoph
Administrator
Hero Member
*****
Hors ligne Hors ligne

Messages: 2 818


Le PIRE des défauts, ne pas RECONNAÎTRE une erreur


Voir le profil WWW
« le: Jeu. 06 Février 2014 à 14:20:57 »

Suite à une publication dont Lien ci dessous :

Lien :http://forum.abc-d-xwd.com/index.php/topic,198.msg1020.html#msg1020,

il y a en gros près de trois ans, j'avais déjà compris que les robots ne pouvaient interpréter, comprendre que des mots, voire un Code couleur et probablement une partie des Codes non html ? Genre JavaScript, fichiers .xml de ressources comme pour le Flash, d'où mon idée de ne jamais utiliser de Flash ou fichiers .swf dits "tout embarqué" ? Et, bien évidemment, mes connaissances sur ces sujets, ce qui m'a valu à l'époque déjà pas mal de mots avec "Admin" à propos du Flash...

Fort de cette expérience qui m'a valu d'avoir mon tout premier Site immédiatement référencé par Google alors que nuléophyte total en la matière, j'ai ensuite eu l'agréable surprise de voir débouler sur mon Site près de trente pour cent de mes Visiteurs via mes fichiers images ! Tout cela à cause de ce que je nomme "Nom de fichier intelligent"...

Comme quoi, puisque mon raisonnement LOGIQUE tenait la route, m'est-il venu l'idée de glisser du texte, savamment réfléchi et destiné uniquement aux robots, ceci uniquement afin de leurs "donner à manger" ? Mais ça devenait incompréhensible sinon carrément indigeste pour les humains, mes Visiteurs conventionnels quoi ?

De là me sont venus deux autres idées, cacher tout ça aux Internautes, tout en le laissant contenu dans la Page, pour les machines ?

Et aussi sec, deux idées mises en place en trois Clics, à savoir mettre le texte de la même couleur que le fond, bah voui, lire du blanc sur du blanc, dur dur, non ?
Et mettre tout ça en "négatif", à savoir à -1 000 pixels verticalement par exemple ?

J'avais d'ailleurs glissé cette idée à Admin à l'époque ou le problème de son "Copy Right" avait fait rage sur son Forum, beaucoup n'acceptant pas cette signature automatique obligatoire et parfaitement visible sur leurs Sites ?

Admin avait alors à l'époque diminué cette dernière à une hauteur d'un pixel et de couleur blanche tout en haut, ce qui m'avait fait perdre un temps énorme à essayer de trouver dans toutes mes Pages (Une centaine déjà...), d'où pouvait provenir ce vilain trait blanc disgracieux dans mon fond bleu nuit ? Ne connaissant rien à l'html ni au css, j'avais à l'époque posé LA question sur son Forum où, fidèle à son habitude déjà pour tout ce qui le dérange, il n'avait pas répondu...

Mais "c o n, chiant, maniaque, pointilleux, sourcilleux, pénible, puriste" etc., j'ai fini par découvrir comment trouver l'html puis le css, et apprendre comment ça fonctionne ?

D'où ma suggestion sur son Forum de résoudre ce problème par un positionnement à moins cinquante pixels, ce qu'il a fait, pour poursuivre par la vente d'une Version "WebMaster", qui théoriquement est vierge de toutes traces de la source d'origine, ce qui même à l'heure actuelle est toujours TOTALEMENT FAUSSE ! ! ! (Pour mémoire mon engueulade avec lui sur son Forum quant au nom du fichier du "<script>" principal, le XWD.js, qu'il a rebaptisé "core" du coup ! Mais bon, il n'est pas à un mensonge près...

Bref, cette mention en négatif existe d'ailleurs toujours, à preuve l'image ci dessous prise à l'instant sur une Page quelconque...


Le problème est que les ingénieurs eux ont ont une tête qui réfléchit, et que rapidement ils se sont intéressés à ces méthodes, ce en fouillant les Sites pardi, et ont découvert ces astuces de "nourrir frauduleusement" les robots ?

D'où depuis les algorithmes sortis courant Août 2011 en Europe la chasse, entre autres, à ces tricheries ?
Textes de la même couleur que le fond, éléments aux dimensions minimes invisibles pratiquement à l'œil nu, éléments positionnés en négatif, tout cela apporte des sanctions ! ! ! J'avais personnellement autrefois beaucoup de "<script>" dans des "<div>" dimensionnées à 10x10 px et positionnées à y = -10 que j'ai modifiées en conséquences, pour éviter tout cela...

Les ingénieurs ont même pensé aux éléments cachés, mais qui pourraient à un Clic quelque par, à une action quelconque ou un délais apparaître ? Ce qui serait alors un élément à ne PAS pénaliser ? D'où le fait qu'ils aient appris aux robots à comprendre le JavaScript, justement afin de voir si tel ou tel élément réduit à une taille de zéro, positionné en négatif ou même avec un "z-index" en dessous de zéro (Position d'empilage vertical cette fois...) pouvait à un moment ou un autre devenir visible ?
Et fort justement pénaliser ceux qui resteront définitivement cachés...


Dont entre autre ces mentions de "Copy Right", qu'il y a des façons tellement plus astucieuses de faire connaître ? ? ?


A bon entendeur, pardon, lecteur, Yvanoph---

Journalisée

La théorie, c'est quand on sait tout mais qu'absolument rien ne fonctionne !

La pratique, c'est quand tout fonctionne "farpaitement" sans vraiment savoir pourquoi, ni d'ailleurs  chercher à comprendre...

Chance inouïe, ici théorie et pratique fonctionnent  !
yvanoph
Administrator
Hero Member
*****
Hors ligne Hors ligne

Messages: 2 818


Le PIRE des défauts, ne pas RECONNAÎTRE une erreur


Voir le profil WWW
« Répondre #1 le: Lun. 29 Septembre 2014 à 00:22:56 »

Comme déjà expliqué maintes fois au fil des Pages de ce Forum, les robots avalent tout ce qui est mot, ce sous toutes ses formes possibles, que ce soit nom de fichier, même les .html, n'en doutez pas, comme ceux composant les attributs les plus divers que nous pouvons placer un peu partout, enfin ... si nous sommes un "WebMaster" talentueux ?


Mais, s'il est une chose que les robots NE PARDONNENT PAS, c'est ce qui "sonne" ou est manifestement FAUX ! Le plus bel exemple en est très certainement les Liens BIDONS, ou fantômes ?
Voilà pourquoi entre autres, je répète inlassablement que la toute toute première Page que vous devriez construire ET publier pour votre projet de Site reste la fameuse "Pigeot", ou Page 404.html ? Page 404 qui sera donc pointée provisoirement par tous les Boutons, sans exception, qui ne pointent pas immédiatement une vraie Page ?
Cela vous évitera de voir des Points ROUGES fleurir sur vos Pages, mais surtout, si astucieusement construite, vous apportera autant le pardon de vos Visiteurs que celui des robots...

Notons qu'il n'en est pas de même lorsque vous donnez un Lien faux ou obsolète ? Les robots vont vous déclasser, même si vous ne le voyez pas, mais par contre, les humains vont dans tous les cas râler, et vous passer manifestement pour un C.. fini assurément ?
Le PIRE sera si vous êtes, ou tentez plutôt de vous affubler d'un titre de "PROfessionnel", car là bien évidemment, ça ne colle plus vraiment ensemble ?

Dans le genre Lien comme celui ci, donné il y a quelques heures sur un "fameux" Forum "https://www.google.com/webmasters/tools/submit-url" (Cf. image ci dessous ! ! !), car ce Lien est TOTALEMENT BIDON, OBSOLETE, dépassé, oublié etc. quoi ? Vous pouvez l'essayer, il vous renverra systématiquement sur l'accès sinon l'ouverture à un compte, mais sûrement pas à une adresse où soumettre l'url d'un Site ! ! !

Dit autrement, un Professionnel, un VRAI, ne manquera JAMAIS de contrôler la validité de son Lien, avant de le jeter en pâture au public et aux robots ? Ce qui n'est manifestement pas le cas de ce FAUX PRO quoi ?

Car un VRAI Professionnel saurait déjà que Google a modifié sa façon de déclarer un Site, ce uniquement par le biais d'un compte, tel que expliqué il y a déjà quelques mois, lors de la mise à jour des JSCs adaptés aux déclarations de Site chez Google ?

Bref, une fois de plus une "image de marque" défendue par de nombreux faux effritée là encore par une bêtise supplémentaire ? Persiste et signe dans le BRUN, l'Admin, là encore ?


Dire quoi, faire QUOI, téléphoner à QUI ? ? ? Yvanoph---

Journalisée

La théorie, c'est quand on sait tout mais qu'absolument rien ne fonctionne !

La pratique, c'est quand tout fonctionne "farpaitement" sans vraiment savoir pourquoi, ni d'ailleurs  chercher à comprendre...

Chance inouïe, ici théorie et pratique fonctionnent  !
Tags: SEO 
Pages: [1]   Haut de page
  Imprimer  
 
Aller à:  

Propulsé par MySQL Propulsé par PHP Powered by SMF 1.1.20 | SMF © 2013, Simple Machines
Soutenir Yvanoph par un Don ?
Boréal - V 1.0 by Yvanoph | Sitemap
XHTML 1.0 Transitionnel valide ! CSS valide !
Page générée en 0.044 secondes avec 22 requêtes.