jeudi, octobre 13, 2011

Vous devez payer pour la prospection téléphonique

Pour téléphoner à des prospects, il va falloir payer chaque mois. La prospection téléphonique va devenir payante. Désormais, toute entreprise prospectant par téléphone auprès de particulier devra faire appel au service Pacitel pour contrôler les numéros de téléphones figurant sur leur fichier de téléprospection. les consommateurs peuvent inscrire leur numéro afin d' éviter d'être contactés lors de campagnes de prospection téléphonique.

Cette règle s'applique de l'auto entreprise à la SA multinationale. Pacitel est payant et la durée de vie du fichier est de 1 mois. Vous pouvez avoir une amende atteignant 30 000 euros, les sanctions prévues en cas d'effraction sont lourdes.

La solution ? Attraper vos prospect via le référencement ou les liens sponsorisés. Ils s'auto-qualifient eux même via leurs mots clefs.

mercredi, juillet 21, 2010

créer une synonymie dans Google

La commande tilde ~ suivi d'un mot dans l'interface de recherche de Google signifie : donnes moi les pages répondant à ce mot clef y compris les synonymes.

Ainsi on verra que les synonymes de auto sont automobiles, véhicule, honda, toyota, cars quelque fois du titre du dessin animé de pixar etc.

Est ce utile pour un référenceur ? Ben oui. Très. cette requête permet d'étudier, un peu, un logiciel Google non documenté : son moteur d'ontologie qui lui sert à évaluer vos pages et à la référencer !!!

rappel simplifié : ontologie = une modélisation donnée et particulière de connaissances.

on découvre ainsi que les synonymes ne sont pas équivalents (au sens mathématiques du terme) chez Google : diagnostic a pour synonyme test mais pas la réciproque par exemple.

Plus votre texte contient votre mots clef et des synonymes de celui ci, mieux il sera référencé. (c'est nettement plus complexe que cela mais bon, c'est à peu près juste comme affirmation). D'où l'intérêt de connaître les synonymes de vos mots clefs.

Un autre intérêt émerge alors : "je voudrais que Google accepte tel synonymie" : en général la demande d'un client est du genre :: le nom de ma société = un mot clef de mon métier. Par exemple : automobile aurait pour synonyme Honda.

Google construit les synonymies à partir de l'usage du moteur par des millions d'internautes. La réponse est donc claire : c'est quasiment impossible pour le commun des mortels. Pour y arriver il faudrait disposer de milliers de pages, de requêtes, de clic dans les SERP afin d'associer des milliers (des millions ?) de fois le mot clef et la marque ciblée.


Les liens entre sites peuvent ils influencer Google ?

Pas toujours.


1 - Commençons par wikipedia : la création de trafic d'internautes humains depuis un ou des sites n'est pas mon métier. Poser des liens dans Wikipedia entre dans cette catégorie. En effet, Google ne tient aucun compte des liens figurant dans les articles. En effet, ces liens sont en rel="nofollow" qui indique à Google : "ne pas suivre et ne pas transférer PR ou autre chose svp". Donc aucun intérêt pour un référenceur. Mais il peut y avoir des internautes humains qui regarde les articles de fond et qui cliquent sur les sources.


Pour avoir un trafic depuis wikipedia il faut réunir les conditions suivantes ::

* écrire un bon article digne de figurer dans une encyclopédie. Sinon le ou les modérateurs supprimeront le post.

* si l'article est accepté, alors vous avez le droit de donner comme source via un backlink qui sera en rel="nofollow"

* si des humains trouvent l'article intéressant, ils pourraient cliquer sur les liens sources à l'origine de l'article.

* le modérateur Wikipedia laissera le backlink en place si celui ci pointe vers une page informative et non commerciale. Cette page peut appartenir à un site commercial.

On voit tout de suite que ce n'est pas le travail d'un référenceur donc.

2 - ensuite un lien pour pouvoir influencer Google et le référencement d'un site ::

* la page de départ doit avoir un PR non nul débutant donc à 0 (rappel : quand la Google bar indique un PR de 0, cela signifie grosso modo que votre PR est en fait entre 0,15 et 0,5. Ce n'est pas exact, mais bon, cela suffira dans ce post.)

* le lien entre page de départ, libellé du lien et page visé doit être cohérent. Sinon, la page de départ risque de se retrouver avec un page rank nul réellement égal à 0 ce coup ci.

DANGER : si vous posez un lien maladroit vers un site extérieur, c'est votre page qui se prend la sanction de PR nul. PAs la page visée.

vendredi, septembre 18, 2009

web 3.0 quand comment ?

Nous sommes actuellement en web2.0 et bientôt, dans 3, 5, 7 ans nous serons en web3.0 (déjà !). Les premiers à être présents sur ce créneau seront les plus expérimentés, les premiers à être bookmarqué via leurs site web3.0 ou plutôt leurs sites et leurs agents logiciels web3.0, par les internautes et à avoir leur trafic de manière prioritaire.

On a déjà des pistes sur ce que sera le web3.0
tout d'abord, avant de discuter du toit d'une maison , faut il d'abord disposer des fondations.

Du temps du web1.0 il aurait été impensable de coder un site en web2.0 :


  • - pas les outils LOGICIELS
  • - pas les codeurs capables de le faire
  • - pas les infrastructure de communication

J'ai débuté sur le web0.0 (web zéro) en 1986 et j'en suis devenu un utilisateur intensif en 1988 (je sais, je suis bon pour le musée à côté du T Rex). De même, à l'époque web0.0 d'une liaison 1200 bits / sec entre Paris et Londres, il aurait impensable de travailler en web1.0

grosso modo, le web1.0 a démarré vers 1995 + ou -1 an avec des infra permettant de disposer à un coût "abordable", de 300 à 2000 francs ht / mois selon la durée d'utilisation, d'une liaison 128 kbits fiable.


Web2.0


peut exister Grâce à des ADSL oscillant entre quelques mégabits /sec jusque 18 pour quelques dizaines d'euros / mois.

Sans internautes connecté à un débit suffisant, inutile de disposer de sites complexes

On peut donc émettre les premières barrières à franchir pour voir le web3.0 arriver ::
  • - les liaisons "fixes" (domicile) des internautes devront être à 100 mbits/sec minimum. Voire plus.
  • - les liaisons en téléphonie mobile 3G devront avoir de la 3G à très bas prix (1,5 mbits minimum) et de nombreux spots "téléphonie mobile 4G" à quelques dizaines de mbit/s
  • - IP V6 devra être en service pour permettre de freiner le spam, la diffusion de virus, les cyber attaques en tout genre, en Internet fixe comme en téléphonie mobile 3G ou 4G. Un iPhone est un Mac dans un téléphone, donc sensible aux virus et aux attaques via Internet.

Mais que pourra t on faire en WEB3.0 par rapport à WEB2.0

là c'est l'imagination versus les attentes cachées des internautes. Voici quelques idées et pistes en vrac ::

  • - classiques mais très peu utilisées pour le moment :: 100 mbits / sec chez tout le monde pour quelques (dizaines ?) euros / mois permettront l'usage rapide et simultanés de services gourmands en haut débit : regarder plusieurs chaines TV HD en même temps, surfer sur Internet etc.
  • - à venir :: des services divers et des réseaux sociaux réellement friendly, bref utilisable très rapidement. Même en 18 mbits / sec facebook et autres sont d'une lenteur désespérante par moment : ergonomie à la limite de la stupidité, temps de réponse lent, fonctionnalités à faible valeur ajoutée car trop complexe à développer sur les infra actuelles, fonctionnalités non développées car pas assez de smartPhone en circulation et pas assez de 3G / 4G pour les exploiter.

un exemple concret : un groupe de copains a développé une app pour iPhone qui le transforme en remote 3D (un genre de wii Mote). Face à un écran avec une appli web, l'iPhone devient un périphérique qu'on manipule physiquement comme une raquette de tennis, un volant etc. et le curseur réagit dans le site web, déclenche des évènements etc. L'utilité actuelle : aucune !! en effet à 99$ le iPhone3G de base et sans liaison 3G réellement rapide, c'est inutilisable ... en web2.0.

On en reparle dans 5 ans. un jeu en ligne avec de l'intelligence sur le serveur (comme actuellement), un agent intelligent dans l'iPhone (c'est nouveau) et un agent intelligent sur le PC / Mac. Cela ouvre de nouvelles possibilités. Entre autre exemples. Sans compter les applis professionnelles, les synchronisations d'applications en temps réel entre PC, serveurs, iPhone

Des gisements d'idées et de possibilités vont alors s'ouvrir et tout naturellement le web3.0 va sortir bu bois ...

Web3.0 et web design et gestion du temps


Les besoins du web3.0 vont changer la donne sur le web design. des freins vont disparaître : plus rapide, plus de débit, des téléphones plus rapides, des écrans tactiles plus grands , des réseaux de spots wiMax (un super wifi) denses, le besoin massif et en forte hausse d'interconnecter vie professionnelle et vie sociale. Les internautes attendront du web design la possibilité de pouvoir utiliser rapidement, de disposer d'une meilleure gestion du temps, de LEUR TEMPS et donc des fonctionnalités liées : covoiturage en temps réel, où sont mes amis en géo-localisation, quel est mon temps de trajet (un super GPS) de ici à là en tenant compte de TOUT (embouteillage, transport en commun, V lib, auto lib etc. )



Web design 3.0


Les développeurs en web design, les agences de communication, de publicité, les agences web vont devoir réviser leurs approches en design.

Les outils de codage pour ce type d'application et de web design plus fluide, plus fonctionnel existent déjà ou presque. Il faudra juste les faire évoluer pour mieux coller aux demandes des designers de sites et d'applications web.



lundi, mai 25, 2009

top erreurs codeur en referencement

Voici la liste des principales erreurs faciles à corriger produites par les différents codeurs intervenant sur un site web ::

  • Changer les URL régulièrement :: des webmestres changent le graphisme de leur site en fonction d'évènements. Pourquoi pas. Mais quand on change les URL des pages du site, on perd une grande partie de son acquis Google en référencement. Dans les sites que je développe avec de telles contraintes, les URL ne changent pas, je remplace tout simplement tous les fichiers graphiques sans en changer les noms.
  • ne pas utiliser swobject2, Open source soutenu par Google, pour gérer ses animations flash depuis les pages HTML de son site. Cet outil permet de bien gérer les contenus alternatif destinés à commenter le contenu de l'animation flash.
  • ne pas doubler un site flash complet par un site HTML "épuisette" :: pour de nombreuses raisons stratégiques, dans l'état actuel de la techno flash, JAMAIS Google ne référencera correctement les multiples animations internes à une animation flash globale, ce que l'on appelle un "site en flash". Il faut doubler ce site flash par un site HTML "texte" renvoyant les internautes via un click vers la page contenant l'animation flash.
  • mettre des menus de navigations illisibles aux bots de Google. Soit on utilise une technologie compatible, soit on double les menus par des liens en dur.
  • Splash Page : une page d'accueil quasiment vide destinée à permettre aux internautes de s'orienter. Il vaut mieux fixer un choix d'office avec une page d'accueil et mettre en évicence les autres possibilités.
  • Trop d'ajax dans une page. Le contenu chargé via des click est inaccessible au bot de Google, donc il n' y a pas de référencement sur ces textes.
  • une page avec juste un formulaire : cette page ne sera pas prise en compte faute de contenu.
  • cliquez ici : joli lien qui pousse les mots clefs cliquez et ici vers la page visée par le lien. totalement idiot d'un point de vue référencement sur Google !! Mieux vaut nommer le lien :: Cliquez ci après pour accéder à ==> nos locations d'appartements à Annecy.
  • mettre le même texte dans le TITLE de la page et dans son meta description. Google n'aime pas à juste titre.
  • Mettre le même TITLE de page à plusieurs pages du même site. Google n'aime pas à juste titre.
  • Mettre le même meta description de page à plusieurs pages du même site. Google n'aime pas à juste titre.
  • spammer le TITLE de page en mots clefs. Exemple :: Robes de mariages, robe de mariage, mariage et robes ....
  • ne pas gérer la balise ALT de vos visuels : dommage, elle est prise en compte par Google. Vous perdez en efficacité sur votre référencement.
  • utiliser les balises ALT de votre charte graphique : vous créez du duplicate content entre vos propres pages dans votre site. Très efficace pour être envoyé au fin fond de l'index par Google.
  • URL stupides et non gérées :: www. monsite.com/presentation.html?id=1234&ref=kl2145&toto=mlp5648i Apprenez à faire de l'URL rewriting.
  • avoir une même page avec deux URL distinctes et en général stupides (voir juste ci dessus) Google détecte un duplicate content et sanctionne. Apprenez à coder proprement, (j'ai écrit un livre sur ce sujet) la gestion de vos contenus pour éviter les duplicate content tout ayant de multiples URL pointant vers la même page.

vendredi, mars 20, 2009

adwords piege conversion vente en ligne

Il est très important d'avoir des informations ssur les internautes acheteurs. Typiquement, leurs mots clefs, naturel ou AdWords, et le moteur ou le site référent.

en effet, connaitre les mots clefs conduisant à des ventes est important. La seule page où prélever ces informations : la page de remerciement suite au reglement effectif par CB.

Hors que voyons nous ? Sauf quelques organismes financiers  type PayPal, il faut cliquer sur le lien "retour à la boutique" depuis la page accusé de réception de la banque. Hors de nombreux internautes ne cliquent pas sur cette page ! et les mesures sur la page sélectionnant le type de carte pour régler ne sont pas fiables. Moins de la moitié des internautes parvenues jusqu'à cette page achètent réellement.

la seule méthode fiable pour disposer de statistiques et mesures fiables en web marketing : l'affichage de la page accusé de réception du paiement par la banque doit lancer une fenêtre affichant la page de remerciement. Les mécanismes de gestion de Cookies de Google Analytics ou autre logiciel de web analytics feront le reste : afficher, si on le leur demande, les informations clefs sur les mots clefs AdWords ou naturel de ces internautes acheteurs.


balise Link rel Canonical Google


Une nouvelle balise afin d'évitez des pénalités Google sur des pages dynamiques codées maladroitement :: c'st : Link Rel=Canonical. Elle est adoptée par Google  et les autres moteurs de recherche.

cette balise  est importante : elle permet d'éviter le duplicate content du à un code informatique maladroit dans votre site internet :: deux URL différentes pour un même contenu.

Google désindexe toutes pages en contenu dupliqué sauf une. Bien sur on ignore laquelle. Ce qui transforme le référencement d'un site en gruyère et cela le pénalise globalement.

Un codeur ignorant peut aisément perturber, voire casser la qualité de référencement d'un site internet en utilisant maladroitement des gestions de session ou des passages d'arguments entre pages.

Cette nouvelle balise link  signale l’URL canonique donc unique de la page où la dite balise est située,  c’est à dire l' unique URL à faite prendre en compte de cette  page par les moteurs.

La syntaxe de cette nouvelle balise ::
  

Cette nouvelle balise représente un immense progrès dans la simplification du métier de référenceur ou de  codeur de site web à référencer.
en effet, pour éviter d'avoir un référencement troué comme un gruyère et donc pénalisant pour la création de trafic, les référenceurs codeurs devaient déployer de multiples programmes et algorithmes pour éviter les duplicates content toujours mauvais pour le référencement à cause des pénalités aléatoires  de désindexation ou pire de Google.

J'ai publié et exposé un tel code source PHP / MySQL  (http://www.referencement-positionnement-sites.com/livre-google-web/)

Il suffit de gérer cette balise quelle que soit les ajouts de session et autres arguments dans l'URL générée à la volée. C'est nettement plus simple à gérer !

dimanche, mars 01, 2009

livre référencement sur Google




















Deux livres sur le référencement réussi sur moteur de recherche, AVEC un support par l'auteur.

Vous pouvez poser des questions sur tout sujet lié aux thématiques abordés dans le livre ou sur les codes sources livrés avec  : Référencement, positionnement, backlinks, netlinking, search marketing, web analytics - questions et réponses sur ::

http://www.referencement-positionnement-sites.com/livre-google-web/

  • niveau débutant, responsable, manager, bref : celui qui n'a pas le temps de mettre les mains dans la mécanique mais qui aime comprendre surtout quand c'est lui qui paye !
  • niveau webmestre débutant et premier site
  • niveau webmestre confirmé
  • niveau codeur de site web désirant comprendre et savoir coder un site referençable sur Google.
  • codes sources livrés avec.

Des informations détaillées autrement sur chaque livre ont publiées sur le site de l'éditeur d'où on peut également télécharger les codes sources PHP / MySQL des "secrets techniques du référencement" ::
Livre sur les secrets techniques du référencement chez MicroApplication :: résumé, codes sources, informations. Tout pour le codeur de sites web désirant automatiser le référencement sur Google en natif dans ses développements web.
Livre chez MicroApplication pour réussir son référencement sur Google :: pour débutant, manager, webmestre débutant à moyen, codeur de site Internet désirant comprendre les mécanismes du référencement afin de les transposer dans leur outils de développement.


bonne lecture


dimanche, décembre 28, 2008

référencement, Google et Internet - cela rapporte !

Sur un de mes clients, petite PME dans un secteur concurrentiel :

- publication du site : septembre 2005
- lancement du site fin septembre avec des moyens en budget = 0 sauf le référencement
- en déc 2005 : 10 prises de contacts / 4 devis émis dont un de 8000 € HT , trafic dépassant 500 visiteurs (uniques) pour la 1ère fois.

Quand je songe à des prospects (cas réels de ce trimestre) qui ne référencent pas leurs sites ou mal, qui paient des liens Google pour avoir des prospects voire qui n'ont même pas de site !

C'est la sélection naturelle dirait Darwin.

Un autre exemple de l'impact du référencement : Kronos France et la gestion du temps


Cette société édite des solutions logicielles pour les DRH : gestion du temps de travail, pointeuse horaire, contrôle d'accès, biométrie etc. . Nommée Captor à l'origine, elle a été rachetée par Kronos en 2008.

En France, la gestion des implique la prise en compte de la gestion des temps de travail, des 35 Heures, des RTT, bref, des droits pour respecter la législation sur le temps de travail des collaborateurs.

Gérer les plannings signifie aussi administrer et automatiser la gestion des absences, le suivi des activités, la gestion des congés.

Ces fonctionnalités de base en DRH permettent de gérer toute entreprise en optimisant les ressources humaines avec un minimum d'efficacité.

La campagne de B.L. a permis à Kronos de mieux faire connaitre son offre en logiciels pour ressources humaines via le réf. naturel. Le trafic sur le site a quasiment doublé en quelques mois, les performances en ventes de logiciel et matériel sur la gestion du tems et le contrôle d'accès ont suivi.