Category Archive : Non classé

L’ADN au service du calcul

Le calcul de l’ADN est la réalisation de calculs utilisant des substances biologiques, plutôt que des puces de silicium traditionnelles. Le concept selon lequel les molécules individuelles (ou même les atomes) pourraient être utilisés pour les temps de calcul jusqu’en 1959, lorsque le physicien américain Richard Feynman a présenté ses idées sur la nanotechnologie. Cependant, le traitement de l’ADN n’avait été réellement reconnu qu’en 1994, lorsque l’informaticien américain Leonard Adleman a démontré comment les molécules pouvaient être utilisées pour résoudre un problème informatique. Un calcul peut être considéré comme l’exécution d’un algorithme, qui lui-même peut être considéré comme une liste étape par étape de directions bien définies qui prend une certaine entrée, le traite et produit un résultat. Dans le calcul de l’ADN, l’information est symbolisée à l’aide de l’alphabet héréditaire à 4 caractères (A [adénine], G [guanine], C [cytosine] et T [thymine]), plutôt que l’alphabet binaire (1 et ) utilisé par l’ordinateur conventionnel systèmes. C’est vraiment possible parce que de courtes molécules d’ADN de n’importe quelle séquence arbitraire peuvent être synthétisées sur commande. L’entrée d’un algorithme est donc représentée (dans le cas le plus simple) par des molécules d’ADN avec des séries spécifiques, les directions sont complétées par des procédures de laboratoire sur les molécules (comme les travailler en fonction de la longueur ou découper des brins contenant une certaine sous-séquence), ainsi que les le résultat est décrit comme une propriété du groupe final de molécules (comme l’existence ou l’absence d’une séquence spécifique). L’expérience d’Adleman consistait à tracer un chemin à travers un réseau de « villes » (étiquetées « 1 » à « 7 ») reliées par une « route » à sens unique. Le problème spécifie que l’itinéraire doit commencer et se terminer dans des communautés spécifiques et visiter chaque ville une seule fois. (Ceci peut être considéré par les mathématiciens comme le problème du cours hamiltonien, un cousin du problème du voyageur de commerce beaucoup plus connu.) Adleman avait profité de la complémentarité Watson-Crick de l’ADN-A et du T qui se collaient par paires, tout comme G et C (donc la séquence AGCT collerait parfaitement à TCGA). Il a conçu de brefs brins d’ADN pour représenter les villes et les routes de manière à ce que les brins de route emprisonnent les brins de la ville les uns avec les autres, formant des séquences de villes qui représentaient des chemins (comme la vraie solution, qui est devenue « 1234567 »). La plupart des séquences de ce type représentaient de mauvaises réponses au problème (« 12324 » parcourt une ville plus d’une fois et « 1234 » ne visite pas toutes les villes), mais Adleman a utilisé suffisamment d’ADN pour être raisonnablement sûr que la bonne réponse sera symbolisée. dans son contenant préliminaire de brins. Le problème était alors de tirer ce remède unique. Il y est parvenu en amplifiant considérablement au départ (à l’aide d’une méthode appelée réaction en chaîne par polymérase [PCR]) uniquement les séquences qui commençaient et se terminaient dans les bonnes villes. Il a ensuite classé le groupe de brins par durée (en utilisant une méthode connue sous le nom d’électrophorèse sur gel) pour s’assurer qu’il ne retenait que les brins de la bonne longueur. Enfin, il a utilisé à plusieurs reprises une «canne à pêche» moléculaire (filtrage par affinité) pour s’assurer que chaque ville était ainsi symbolisée dans les séquences de prospection. Les brins qui restaient à Adleman avaient ensuite été séquencés pour montrer la solution au problème. Même si Adleman cherchait simplement à établir la faisabilité du traitement avec des substances, peu de temps après son bulletin d’information, son expérience a été présentée par certains comme le début d’un concours entre les systèmes informatiques basés sur l’ADN et leurs alternatives au silicium. Certaines personnes pensaient que les ordinateurs moléculaires pourraient un jour résoudre des problèmes qui mettraient les machines existantes en difficulté, en raison de l’énorme parallélisme naturel de la biologie. Étant donné qu’une petite goutte d’eau peut contenir des milliards de brins d’ADN et parce que les opérations biologiques agissent sur chacun d’eux – efficacement – en parallèle (au lieu d’un à la fois), il a été affirmé qu’une fois, les ordinateurs à ADN pouvaient signifier (et résoudre) des problèmes difficiles qui dépassaient le cadre des ordinateurs « normaux ». Néanmoins, dans de nombreux problèmes difficiles, le nombre d’options réalisables augmente de façon exponentielle avec les dimensions du problème (par exemple, le nombre d’options peut doubler pour chaque ville ajoutée). Cela signifie que même des problèmes assez minimes nécessiteraient des volumes d’ADN ingérables (sur l’achat de grandes baignoires) afin de signifier toutes les réponses possibles. L’expérience d’Adleman était importante car elle effectuait des calculs à petit niveau avec des molécules biologiques. Mais surtout, il ouvrait la possibilité de réponses biochimiques immédiatement programmées.

Ces bots qui manipulent le net

Vérifiez autour de vous, particuliers du Web. Les chenilles. Ils sont presque partout. La plupart des visiteurs ne sont pas des êtres humains, mais des robots ou des plans conçus pour accomplir des tâches programmées. Ce sont les abeilles ouvrières de votre internet, plus les sbires. Certains robots aident à actualiser votre offre Facebook ou MySpace ou à apprendre à classer les résultats de recherche Google. d’autres robots imitent l’humanité et mènent des grèves désastreuses de DDoS. En règle générale, les robots d’exploration – négatifs et positifs – sont responsables de 52% du trafic sur le site Web, selon un autre rapport de l’organisation de sécurité Imperva, qui concerne une évaluation annuelle de l’action des robots sur Internet. La statistique de 52% est significative car elle indique certains conseils de la part de la balance de l’année précédente, selon laquelle un trafic ciblé individuel avait été dépassé pour la première fois par les visiteurs de bot, à tout le moins en 2012, lorsque Imperva a commencé à vérifier l’exercice sur le web. . L’étude la plus récente, qui repose sur une évaluation de près de 17 milliards de sessions de site sur plus de 100 000 noms de domaine Internet, montre que les robots d’exploration sont à nouveau en tête. Non seulement cela, mais les robots nuisibles ont l’avantage sur les robots d’exploration, qui étaient respectivement responsables de 29% et 23% de la majorité du trafic de sites Web. «La statistique la plus déconcertante de ce document est en outre l’engouement le plus persistant qu’il observe», écrit Igal Zeifman, directeur de la publicité d’Imperva, dans un article sur l’enquête. «Pendant cinq ans, chaque visiteur sur le troisième site Web était un bot de l’invasion.» Une manière différente: plus de 94% des 100 000 sites Web inclus dans le record ont assailli un ou plusieurs assauts de bot au cours de la période de 90 L’étude d’Imperva. Les sites Internet qui sont moins favorisés par les êtres humains – tel que mesuré par le trafic sur les sites Web – avaient tendance à recevoir beaucoup plus de voyages de crawlers. Zeifman a écrit: «Placez-vous simplement, les bons robots vont explorer votre site Web et les mauvais robots vont essayer de le casser, peu importe la façon dont il est connu avec l’homme. Ils vont même continuer à continuer à visiter un site en l’absence de tout trafic individuel ciblé. « 

Le retour sur investissement de l’internet

Tout au long de l’ère du marketing de masse, une compréhension précise du retour sur investissement a rarement été disponible au sein des organisations qui investissent massivement dans la publicité, bien qu’elle soit prisée. Avec l’avènement de l’ère numérique est venue la promesse d’une mesure transparente de l’impact commercial des canaux en ligne. Cependant, la pléthore de mesures de performance disponibles pour les canaux en ligne n’a pas permis de clarifier l’efficacité du marketing. La plupart des entreprises qui investissent massivement dans le marketing prennent des décisions critiques en matière d’allocation d’investissement sur la base de rapports erronés sur le retour sur investissement et/ou le coût par acquisition (CPA). Il en résulte une mauvaise allocation des investissements qui freine considérablement la croissance des entreprises à long terme.

LE DÉSÉQUILIBRE DES DONNÉES SUR LES CANAUX HORS LIGNE ET EN LIGNE
Presque toutes les entreprises qui investissent dans le marketing en ligne évaluent son efficacité en liant les événements de conversion (c’est-à-dire les prospects, les acquisitions ou les ventes en ligne) à la publicité en ligne qui a eu lieu sur le même appareil avant conversion. Cela va de la simple attribution du dernier clic gagnant à des approches multi-touch plus sophistiquées qui attribuent un certain crédit à la séquence d’annonces vues (suivies à l’aide de cookies tiers) et aux liens de recherche cliqués, tout au long du parcours client en ligne. Cependant, l’attribution basée sur le suivi des points de contact numériques entraîne presque toujours une compréhension biaisée du coût par conversion pour six raisons clés :

1 La publicité en ligne, en particulier la recherche en ligne, convertit l’intérêt suscité par les canaux hors ligne. Souvent, les canaux en ligne se voient attribuer tout le mérite de convertir l’intérêt qui a été cultivé au cours des années de construction de la marque.

2 Presque toutes les approches d’attribution basées sur les points de contact ne suppriment pas les conversions de base (c’est-à-dire les conversions qui se seraient produites même en l’absence de marketing).

3 L’attribution des points de contact optimise la diffusion d’annonces numériques aux personnes susceptibles de convertir, par opposition à la diffusion d’annonces aux personnes susceptibles d’être influencées par La publicité. C’est l’une des raisons pour lesquelles le reciblage semble souvent très efficace. Bombarder les personnes qui ont manifesté un intérêt pour un produit avec une publicité ciblée pour ce produit peut provoquer des conversions incrémentielles, mais cette tactique spamme également de nombreuses personnes qui auraient de toute façon fait un achat.

4 Des inexactitudes de coût se produisent dans les rapports de la plupart des solutions standard pour mesurer l’efficacité des canaux numériques. L’intégration précise des données de coûts à partir du contenu (par exemple, Outbrain et Plista), des affiliés et des achats programmatiques dans les serveurs publicitaires est entravée par des problèmes d’intégration technique. Cela conduit à des chiffres incorrects de CPA et de retour sur investissement.

5 Le suivi multi-appareils n’est intégré que dans certaines solutions d’attribution multi-touch (et très peu de fournisseurs de solutions ont une empreinte d’utilisateurs connectés sur plusieurs appareils suffisante pour un suivi déterministe multi-appareils à grande échelle).

6 Certains navigateurs, tels que Safari, bloquent les cookies tiers en défaut. Cela masque efficacement la solution d’attribution de la publicité en ligne diffusée avant une conversion.

Malgré les graves défauts de la plupart des solutions d’attribution numérique contemporaines, les chiffres de CPA et de retour sur investissement qu’elles génèrent sont traités comme un évangile dans de nombreuses entreprises. En revanche, toute forme de suivi du retour sur investissement pour les canaux hors ligne est rarement disponible. Ce déséquilibre des données conduit presque toujours à un transfert progressif des fonds vers les canaux en ligne au fil du temps, en particulier vers la recherche payante, le reciblage et d’autres tactiques qui convertissent l’intérêt existant.

« Malgré les graves défauts de la plupart des solutions d’attribution numérique contemporaines, les chiffres de CPA et de retour sur investissement qu’elles génèrent sont traités comme un évangile. »
OPTIMISER LA PART DES DÉPENSES DU DIGITAL (SOE)
Il existe généralement un indicateur clé indiquant que la répartition des investissements entre les canaux hors ligne et en ligne est excessivement biaisée en faveur de ces derniers. Si la proportion de conversions en ligne attribuée aux médias numériques augmente de manière constante au fil du temps, il s’agit d’un signe clé que les médias numériques prennent progressivement de plus en plus de crédit pour des ventes qui auraient eu lieu de toute façon. La réaffectation des fonds des tactiques de conversion telles que le reciblage et la recherche payante, et vers des canaux qui ciblent les mesures du haut de l’entonnoir, entraînera presque certainement une croissance plus rapide de l’entreprise et un meilleur retour sur investissement à long terme.

De même, l’inverse est aussi généralement vrai (bien que cela se produise de plus en plus rarement). Si la part des conversions en ligne générées par les médias numériques payants a tendance à baisser, c’est un indicateur que de meilleurs résultats suivront si une proportion plus élevée du budget global est investie dans des activités conçues pour convertir les intérêts. Bien que les résultats de l’attribution numérique multi-touch soient presque toujours erronés, ils sont toujours utiles.

Les résultats de l’attribution numérique multi-touch ne doivent pas être traités comme un indicateur fiable du CPA ou du retour sur investissement, même après que des mesures ont été prises pour corriger certains des défauts les plus flagrants qui sont souvent présents dans le numérique. rapports, tels que le suivi inexact des coûts pour le contenu, les affiliés et le programmatique. Le moyen le plus efficace d’exploiter les résultats de l’attribution numérique multi-touch pour générer de meilleurs résultats commerciaux est de se concentrer sur le classement entre les différents éditeurs numériques au sein d’une campagne donnée et d’utiliser les performances relatives entre eux pour guider la prise de décision. Si cela est fait en tandem avec l’optimisation du mix global entre les canaux hors ligne et en ligne, une amélioration du retour sur investissement à long terme est susceptible de suivre.

Quand le web absorbe le retail

Google obtient une petite start-up technique irlandaise de vente au détail appelée Pointy pour une quantité non divulguée, a confirmé mardi le géant de la recherche. L’offre devrait se sceller dans les prochains jours. Pointy a son siège à Dublin et permet aux gens de vérifier ce que leurs magasins locaux ont maintenant en stock. La société a créé le conteneur Pointy, un peu d’équipement qui se connecte au scanner de codes-barres du propriétaire d’un magasin et enregistre exactement ce qui est vendu. Le logiciel informatique de Pointy suit ce qu’un commerçant commercialise et peut prendre une bonne idée du moment où il est en rupture de stock sur le produit particulier. Ces informations boursières sont ensuite affichées sur le profil utilisateur de leur entreprise Google, de sorte que quiconque recherche un magasin local qui propose, par exemple du scotch, puisse vérifier s’il est accessible à proximité. Google a déclaré dans un article de blog que la start-up était un compagnon clé depuis de nombreuses années, et que Pointy avait expérimenté qu’il était plus pratique pour les détaillants communautaires de présenter leurs offres aux acheteurs qui recherchent sur Yahoo. L’un des nombreux problèmes auxquels sont confrontés les petits commerçants est d’obtenir leurs informations de stock en magasin sur Internet d’une manière facile à gérer et à jour de manière fiable. Étant donné que l’organisation des informations sur le monde est au cœur de ce que nous faisons tous, nous nous efforçons de faciliter considérablement la tâche des marchands à proximité pour mieux montrer leurs produits et services aux consommateurs curieux sur les moteurs de recherche. Pointy a récolté environ 19 millions de dollars de fonds d’entreprise et a également été soutenu par des investisseurs providentiels comme le créateur de graphiques de moteurs de recherche Lars Rasmussen, le cofondateur de TransferWise Taavet Hinrikus et le fondateur de WordPress Matt Mullenweg. En 2018, la start-up comptait environ 50 personnes. Il s’agit en fait de la prochaine start-up commercialisée auprès de Google par le PDG de Pointy et propriétaire d’une entreprise en série, Mark Cummins. Cummins a fait des recherches sur la robotique des téléphones portables au Collège d’Oxford et a été une fois rejeté du poste dans les moteurs de recherche. Il a procédé à la vente de sa start-up de recherche graphique Plink pour la recherche et les annonces massives en 2010. Cummins est venu avec Pointy tout en continuant à travailler chez Google, et a quitté la firme pour monter la start-up avec le cofondateur Charles Bibby. Lorsque Enterprise Specialized a inclus Pointy fin 2018, nous avons supposé que Yahoo pourrait racheter l’entreprise. La start-up s’appuie sur Google pour positionner ses pages extrêmement, et il est très clair que le type d’informations que les services fournissent se combinerait bien avec les listes d’articles de magasins de détail à proximité sur Google Maps. Dans un article de blog, Bibbin et Cummins ont publié: « Les six dernières années se sont avérées être un voyage incroyable, et représentent aujourd’hui le début d’une nouvelle section. » Depuis ses débuts, nous sommes vraiment très heureux d’offrir aux marchands locaux dans presque toutes les villes. et chaque communauté en Amérique et dans toute l’Irlande. De nombreuses personnes incroyablement talentueuses ont rejoint notre entreprise, nous avons obtenu le soutien d’un incroyable groupe d’investisseurs et créé de formidables partenariats. C’est un excellent plaisir d’opérer sur une chose qui aide les propriétaires d’entreprises locales dans les villes et villages partout. « 

Disséquer l’équilibre bénéfice et risque de l’IA

De SIRI à la conduite personnelle d’une automobile, l’intellect synthétique (IA) progresse rapidement. Alors que la science-fiction décrit généralement l’IA comme des robots aux caractéristiques semblables à celles de l’homme, l’IA peut englober tout, des techniques de recherche de Google à Watson d’IBM en passant par les outils autonomes. Aujourd’hui, les connaissances créées par l’homme sont correctement appelées IA étroite (ou IA affaiblie), en ce sens qu’elles doivent être développées pour effectuer une tâche étroite (par exemple, uniquement la reconnaissance faciale ou uniquement des recherches sur le Web ou uniquement la conduite d’une voiture). Néanmoins, l’objectif à long terme de plusieurs experts est de générer une IA générale (AGI ou IA solide). Alors que l’intelligence artificielle étroite peut surpasser les humains dans toutes ses tâches, comme jouer activement aux échecs ou résoudre des équations, l’AGI surpasserait les humains dans pratiquement toutes les tâches cognitives. À court terme, l’objectif de maintenir l’impact de l’IA sur la communauté bénéfique inspire des études dans de nombreux domaines, de l’économie et de la législation aux domaines technologiques tels que l’affirmation, l’applicabilité, la protection et le contrôle. Bien que ce ne soit rien de plus qu’une petite nuisance en cas d’accident ou de piratage de votre ordinateur portable, il peut être beaucoup plus essentiel qu’un programme d’IA fasse ce que vous voulez qu’il fasse s’il contrôle votre véhicule, votre avion, votre stimulateur cardiaque, votre système de trading automatisé ou votre réseau énergétique. Un autre défi à court terme consiste à arrêter une course aux armements écrasante dans des outils autonomes mortels. À long terme, une question essentielle pour vous est de savoir ce qui va se passer si la poursuite d’une IA forte réussit et si un système d’IA devient meilleur que les humains dans tous les domaines cognitifs. Comme l’a révélé I.J. Génial en 1965, créer de meilleures méthodes d’IA est en soi un travail cognitif. Ce type de méthode pourrait potentiellement subir un développement personnel récursif, activant une explosion de l’intellect éloignant l’intellect individuel de manière significative. En créant des technologies innovantes, ce type de superintelligence nous aidera à nous débarrasser de la bataille, de la maladie et de la pauvreté, et ainsi la création d’une IA forte peut être le plus grand événement dans le milieu humain. Certains professionnels ont exprimé leur inquiétude, cependant, cela peut également fonctionner comme la finale, sauf si nous apprenons à aligner les objectifs de l’IA avec les nôtres avant qu’elle ne soit superintelligente. Il y en a plusieurs qui se demandent si une IA solide sera jamais atteinte, mais d’autres insistent sur le fait que la création d’une IA superintelligente sera certainement bénéfique. Chez FLI, nous reconnaissons ces deux opportunités, mais reconnaissons également l’opportunité d’un système intellectuel artificiel de déclencher intentionnellement ou par inadvertance d’excellents dommages. Nous savons que les enquêtes de nos jours peuvent nous aider à mieux nous préparer à prévenir de telles conséquences potentiellement défavorables à l’avenir, profitant ainsi des avantages de l’IA tout en évitant les problèmes. La plupart des experts reconnaissent qu’une IA superintelligente est peu susceptible de montrer des émotions humaines telles que jouir ou détester, et il n’y a aucune raison que l’IA devienne intentionnellement bienveillante ou malveillante. Au lieu de cela, quand il s’agit de savoir comment l’intelligence artificielle peut éventuellement devenir un risque, les experts ressentent probablement deux situations: l’IA est programmée pour faire quelque chose d’écrasant: les outils autonomes sont des systèmes de connaissances artificiels qui sont développés pour tuer. Entre les mains de la mauvaise personne, ces outils pourraient très facilement entraîner des pertes massives. De plus, une course aux armements de l’IA pourrait accidentellement provoquer une guerre de l’IA qui entraînerait également des pertes de taille. Pour éviter d’être contrarié par l’adversaire, ces armes pourraient être rendues très difficiles à «éteindre» simplement, de sorte que les humains pourraient vraisemblablement perdre le contrôle de ce genre de scénario. Ce danger est celui qui existe même avec une IA mince, mais qui augmente à mesure que l’intelligence de l’IA et l’autonomie augmentent. L’IA est conçue pour rendre un mouvement bénéfique, mais elle construit une méthode destructrice pour atteindre son but: cela peut se produire si nous oublions d’aligner totalement les cibles de l’IA avec les nôtres, ce qui est extrêmement difficile. Si vous vérifiez avec une automobile intelligente et obéissante de vous considérer au terminal de l’aéroport le plus rapidement possible, cela pourrait vous y amener poursuivi par des hélicoptères et inclus dans le vomi, ne faisant pas ce dont vous aviez besoin mais en fait ce que vous avez demandé. Lorsqu’un produit superintelligent est chargé d’un projet de géo-ingénierie engagé, il peut provoquer la destruction de l’écosystème étant un effet secondaire, et considérer les efforts individuels pour l’arrêter comme une menace à satisfaire. Comme le montrent ces illustrations, le souci d’une IA sophistiquée n’est pas la malveillance mais la compétence. Une IA super-intelligente sera très efficace pour atteindre ses objectifs, et si ces objectifs ne correspondent pas aux nôtres, il existe un problème. Vous n’êtes probablement pas un méchant anti-fourmis qui agit sur les fourmis par malice, mais si vous êtes responsable d’une entreprise d’énergie verte hydroélectrique et qu’il y a une fourmilière dans la région pour être surchargée, tant pis pour les fourmis. Un objectif clé de la recherche fondamentale sur la sécurité de l’IA est de ne jamais repérer l’humanité à la place de ces fourmis.

Domination: Amazon est de plus en plus fort

Le marché en ligne d’Amazon vient de nous offrir une mise à niveau sur la rapidité avec laquelle son propre système de livraison remplace UPS, les services postaux des États-Unis, FedEx, ainsi que d’autres transporteurs pour livrer les offres d’un centre de traitement du marché en ligne d’Amazon vers la porte du client d’Amazon. Les montants indiquent la taille que cette technique suit définitivement, pratiquement pas de temps pour la démarrer, la taille du volume du package et le nombre de pilotes qui fonctionnent déjà dans cette méthode. Cela a des implications massives pour cette entreprise de logistique américaine, les entreprises qui y ont recours, comme UPS et FedEx, et cela continue à augmenter leurs frais publiés malgré la dynamique du marché, qui fait face au développement d’Amazon, les entreprises en pleine croissance qui Le marché en ligne d’Amazon se met en place pour se rapprocher des fournisseurs reconnus. Son objectif est double: un, diminuer les frais de livraison. Et 2, la gestion du gain. Les frais de livraison ont été un problème majeur dans le commerce électronique. Et la gestion était un problème majeur pour Amazon pendant la saison des vacances 2013. Le déluge des commandes du marché en ligne d’Amazon était de s’assurer qu’il submergeait UPS et FedEx, et les offres ont été livrées juste après Noël, ce qui a créé une débâcle massive pour Amazon. Donc, pour obtenir le contrôle et porter des frais plus bas, il doit devenir le gorille numéro 1 au sein de l’entreprise de logistique et s’entourer de milliers de petites entreprises de logistique qu’il contrôle entièrement et qui ingèrent l’heure du déjeuner des dirigeants d’aujourd’hui, UPS et FedEx . Et c’est ce qui se passe à une vitesse étonnante. Le marché en ligne d’Amazon n’a pas développé de commerce en ligne. Mais depuis le premier jour, cela a poussé l’enveloppe dans toutes les directions pour devenir le principal participant dans à peu près tous les domaines associés, certains de haute technologie, certains de moindre technologie, du cloud computing à l’expédition, pour réduire les coûts et obtenir le contrôle . Pour ce faire, le marché en ligne d’Amazon aide à produire un grand nombre de petites organisations. Il séduit les gens d’affaires potentiels avec des offres d’entrée attrayantes. Ces sociétés n’ont pas de propriétaires de voitures non syndiqués, et elles n’ont pas non plus de siège social extravagant ni de frais généraux, et elles peuvent travailler à rabais, surtout si elles peuvent utiliser l’énergie d’achat d’Amazon pour les voitures et les polices d’assurance, ce qui est le cas d’Amazon. com a configuré pour leur permettre de faire. La première fois que j’ai remarqué que c’était exactement l’endroit où j’avais discuté avec un chauffeur d’expédition, c’était début 2017. Amazon. Les offres com ont déjà été livrées à notre immeuble de San Francisco par le support postal américain, par UPS ou par FedEx. Mais ensuite, j’ai réalisé que les offres Amazon étaient devenues livrées par des gens typiques. Un certain nombre d’entre eux ont commencé dans des voitures banalisées. D’autres individus avaient été marqués avec Amazon. logos com. L’un d’entre eux s’est traîné dans un minuscule véhicule de couleur blanche portant un logo Amazon. Et qu’il portait un gilet avec une Amazone. logo com. Alors, je lui ai demandé s’il travaillait pour le marché en ligne d’Amazon. Il a expliqué qu’il travaillait bien pour toute organisation d’expédition et de livraison avec environ 20 camionnettes à Oakland qui livraient pour Amazon. com. Pendant ce temps, Amazon mettait en place deux programmes dans des villes choisies, dans lesquels il avait activement prospecté des employés de concerts et des «entrepreneurs». Un système était «Amazon Flex»: le marché en ligne d’Amazon l’a facturé afin de «gagner 18 $ à 25 $ par heure». livraison de colis avec Amazon. com. »Il dépendait de l’application mobile et permettait aux employés de concerts de sélectionner un bloc d’énergie en une journée pour récupérer et proposer des offres. La zone de sélection pourrait être un service de marché en ligne Amazon ou «un magasin ou même un restaurant», a-t-il déclaré. Les employés de Gig peuvent utiliser leur automobile ou leur vélo ou quoi qu’il arrive. Et ils ont été des entrepreneurs, payés par le marché en ligne d’Amazon.

Robots : 2e vague

La période est fabuleuse : les robots arrivent dans nos vies. Ils trottent sur leurs deux jambes, causent, décryptent les émotions humaines.Toute ces choses, ils en sont désormais capables. Ils ont déjà commencé à assister les personnes à mobilité réduite, aider les employés, mitonner de bons petits plats avec nous ou à notre place… Leur arrivée est si proche que, la semaine dernière, j’ai suivi un congrès à Cannes intégralement consacré aux risques qu’ils peuvent susciter. Le sujet général de ce séminaire portait plus particulièrement l’usage de la collaboration homme/robot, autant dans le milieu industriel que dans celui des services. Le meeting ne portait pas sur les innovations technologiques spécifiques. La problématique était aiguillé sur des facteurs humains, l’évolution dans les process industriels, des innovations attendues. En écoutant les nombreux participants, j’ai constaté qu’un mouvement considérable s’était opéré dans la manière dont ils sont perçus : les robots ne sont plus envisagés comme des remplaçants, mais bien comme des coéquipiers. Au point qu’on ne parle plus tant de robots, mais des robots humanoïdes collaboratifs, aussi appelés cobots. La robotique collaborative conçoit les robots non comme des travailleurs autonomes mais afin qu’ils travaillent en présence et en coopération avec l’homme. Cette participationchange la donne car elle requiert d’une part une certaine intelligence embarquée, capable de décrypter les données transmises par les capteurs internes du robot, mais aussi que le robot soit compliant, que ses mouvements soient élastiques, plus proches de ceux des hommes. La robotique collaborative touche actuellement de très nombreux secteurs industriels, qu’il s’agisse de grandes entreprises ou PME. L’adaptabilité, la fiabilité et le rendement des robots collaboratifs en font des dispositifs permettant l’automatisation de tâches encore peu ou pas robotisées à ce jour. La robotique collaborative est en fait le deuxième stade de robotisation des entreprises, la colonne vertébrale de l’usine à venir. En tout cas, la période qui vient risquent d’être particulièrement passionnante à vivre. Les robots vont devoir être acceptables et acceptés. Mais ce séminaire m’a convaincu. Et d’ici cinq ans, nous aurons tous un Mabu à la maison pour nous épauler dans ses corvées.

La fin de Facebook en Asie

En Indonésie, « la plus grande économie d’Asie du Sud-Est, avec une population de 265 millions », Facebook est confronté à une impasse inattendue. Après 12 ans de croissance mondiale surdimensionnée, le champion de la technologie avec une capitalisation boursière de 414 milliards de dollars américains qui a commencé sa vie sur les campus universitaires est devenu le média social de choix pour les «vieux».

En effet, il semble perdre son attrait au sein de son noyau démographique: les jeunes, éduqués et mobiles ascendants. En fait, de nombreux utilisateurs plus jeunes viennent d’arrêter de se connecter.

La raison? C’est simple. Les «enfants» voient apparemment Facebook comme maladroit et dépassé. Ses algorithmes fastidieux donnent la priorité à la famille et aux amis par rapport à un contenu plus intéressant.

Bien sûr, il existe encore des marchés sur lesquels Facebook reste dominant. Au Myanmar, environ 91% des internautes fréquentent le site. Que ce niveau de pénétration puisse être maintenu alors que les utilisateurs de Yangon, Mandalay et au-delà deviennent plus sophistiqués est une autre question.

Ailleurs, les problèmes bien médiatisés de Facebook en matière de sécurité des données et de discours de haine n’ont pas aidé, mais dans une grande partie de l’Asean, ces préoccupations se sont à peine enregistrées. Les utilisateurs de Jakarta ou de Kuala Lumpur ont peu d’idée sur les allégations contre Sheryl Sandberg de célébrité «maigre». Nous sommes tellement habitués aux hypocrites que nous le remarquons à peine.

Le vrai problème de Facebook, cependant, est que c’est ennuyeux.

Avec des dinosaures comme MySpace, Bebo et Friendster déjà condamnés au cimetière numérique, cela pourrait-il être le début de la fin pour Facebook?

Alors que je me suis assis pour le déjeuner en décembre avec un groupe d’étudiants de l’un des principaux établissements d’enseignement supérieur d’Indonésie, l’Université Gadjah Mada dans la capitale culturelle de Yogyakarta, leur point de vue sur la start-up de Mark Zuckerberg, devenue le symbole du style de vie, était clair.

Rully Satria, un étudiant de 20 ans de Padang, estime que Facebook passe: « Je ne l’ai pas utilisé depuis un moment. Les fois où je le fais » qui sont rares « Je vais vérifier comment vont ma famille [et] mes proches. « 

En Indonésie, les jeunes de 19 à 34 ans représentent 50 pour cent de tous les utilisateurs d’Internet. La plupart des milléniaux, comme Rully, ont grandi avec Internet. Cependant, en 2018, le plus grand nombre de nouveaux utilisateurs de Facebook étaient âgés de 45 à 55 ans. En effet, il est devenu le domaine des parents et grands-parents de la génération Y.

«Seuls mes parents, mes tantes et mes oncles l’utilisent encore», ajoute Rully.

Facebook est principalement une plate-forme Web, conçue pour les utilisateurs de bureau. Les nouvelles applications de médias sociaux sont exclusives aux smartphones, qui nécessitent un autre type de maîtrise. Et l’interface smartphone plus complexe offre aux milléniaux une couverture de sécurité.

Autrefois bastion de la liberté d’expression, les récentes interventions gouvernementales et militaires ont également souvent forcé Facebook à plier le genou, au détriment des droits de l’homme.

Au Vietnam, la restriction du contenu anti-gouvernemental «toxique» sur le site a aliéné les militants et réduit au silence la liberté d’expression. Pendant ce temps, l’armée birmane, la Tatmadaw, a utilisé de faux comptes Facebook pour inciter au génocide contre les Rohingyas musulmans.

En cette ère de collecte massive de données, l’anonymat est devenu une priorité pour de nombreux internautes. Les rapports liant Facebook à la controversée Cambridge Analytica ont terni l’image publique du site.

Le fait que l’idée originale de Zuckerberg soit connue pour vendre des informations personnelles à des sociétés de publicité renforce la méfiance. D’autre part, Twitter et Instagram ne s’appuient pas sur des informations personnelles, ce qui donne un plus grand sentiment de confidentialité.

«Je ne veux pas qu’ils sachent ma vie sociale», dit Rully.

Alors, où tout le monde va-t-il? En Indonésie, Instagram, LINE et Twitter sont considérés comme beaucoup plus élégants et rationalisés. De plus, de nombreux utilisateurs trouvent que les algorithmes de Facebook sont aléatoires et disjoints.

« Les personnalités politiques et les célébrités sont également plus actives sur Twitter. La limite de 140 caractères rend les messages beaucoup plus lisibles », déclare Probo, un jeune diplômé de 23 ans.

En revanche, le programme « News Literacy » de Facebook, lancé l’année dernière, n’a pas suscité beaucoup d’enthousiasme.

Rully, par exemple, se tourne vers Instagram pour ses nouvelles quotidiennes, « Tirto.id, Opini.id et Beritagar proposent des infographies qui sont plus informatives et intéressantes pour moi. »

Pourtant, selon Adryz Ariffin, un responsable du marketing des médias sociaux basé en Asie du Sud-Est, ce changement de Facebook n’a pas eu d’impact immédiat sur le marketing numérique. « Facebook a toujours le plus de retours et de portée. Pour la plupart des Asiatiques du Sud-Est, c’est leur premier point de contact avec Internet », dit-il.

Rapports liant ceux de Zuckerberg brainchild avec Cambridge Analytica ont terni son image. Photo: Getty Images

Facebook et Google continuent de dominer les marchés de la publicité en ligne en Asie du Sud-Est, dont «l’Indonésie est le plus grand», selon Adryz. «Le Vietnam et le Myanmar se développent, mais ne sont pas encore sur la carte», dit-il.

Même Adryz admet qu’il a quitté la plateforme et prédit que dans cinq ans environ, ce ne sera plus le numéro un.

Peut-être que ce que nous voyons n’est pas tant la «mort» de Facebook que sa destruction. C’était autrefois le roi des médias sociaux. Pour certaines personnes, il s’agissait des médias sociaux à l’époque.

Mais dans la plupart des pays d’Asie du Sud-Est, ce n’est plus le cas. Un vieux chien peut-il encore apprendre de nouvelles astuces? Il va falloir voir.

De la bonne utilisation de Google My Business

Google ajoute plus d’informations à la recherche et à Maps sur les entreprises qui proposent des options de livraison et de ramassage de produits d’épicerie. Les informations sont ajoutées à la recherche automatiquement, ce qui signifie qu’aucun travail n’est nécessaire de la part des entreprises, mais il s’agit d’une mise à jour qui mérite d’être prise en compte. Cet ajout à la recherche Google et à Maps est en cours de déploiement dans le cadre d’une mise à jour plus large qui comprend un certain nombre d’autres fonctionnalités utiles. Nous examinerons les autres fonctionnalités à la fin de cet article – passons d’abord en revue les améliorations apportées aux profils Google My Business.

Nouvelles informations dans les profils Google My Business Google fournit des informations sur les achats aux profils commerciaux des magasins pour aider les gens à trouver des options de livraison et de ramassage d’épicerie pratiques.

Les informations que Google ajoute aux profils d’entreprise applicables dans la recherche et sur Maps comprennent: Fournisseurs de livraison Frais de commande Commande minimum Google commencera d’abord à diffuser ces informations sur la recherche mobile en commençant par les magasins Instacart et Albertsons Cos. Aux États-Unis. Il est prévu d’étendre cette fonctionnalité à Google Maps et à d’autres partenaires de livraison à l’avenir. Il semble que Google récupérera automatiquement ces informations dans des profils d’entreprise en fonction des détails fournis aux fournisseurs de livraison. Dans le cadre de cette mise à jour, Google teste cet été un service d’épicerie innovant qui combine l’utilisation de Google Maps avec des commandes en ligne pour le ramassage en bordure de rue:

Cet été, nous faisons également équipe avec le supermarché américain Fred Meyer, une division de The Kroger Co., dans le cadre d’un projet pilote dans certains magasins de Portland, dans l’Oregon, afin de faciliter le ramassage des produits d’épicerie. Une fois que vous avez passé une commande de retrait sur l’application du magasin, vous pouvez l’ajouter à Maps. Nous vous enverrons une notification lorsqu’il est temps de partir et vous laisserons partager votre heure d’arrivée avec le magasin. Votre ETA est continuellement mis à jour, en fonction de l’emplacement et du trafic. Cela aide le magasin à prioriser votre commande afin qu’elle soit prête dès que vous y êtes. Enregistrez-vous sur l’application Google Maps, et ils apporteront votre commande immédiatement pour un ramassage sans contact, rapide et sans contact. » Google affirme que cette mise à jour est rendue possible grâce aux progrès de l’IA. Voici un aperçu de quelques autres avancées basées sur l’intelligence artificielle à venir sur Google Maps dans un proche avenir. Plus de fonctionnalités basées sur l’IA à venir sur Google Maps Les utilisateurs de Google Maps peuvent bientôt rechercher ces fonctionnalités dans l’application mobile. Vue en direct Google Maps sera bientôt en mesure d’aider les utilisateurs à naviguer dans les espaces publics intérieurs – tels que les aéroports, les gares de transport en commun et les centres commerciaux – grâce à Live View. Live View est alimenté par une technologie appelée localisation globale, qui utilise l’IA pour numériser des dizaines de milliards d’images Street View afin de comprendre votre orientation … Si vous prenez un avion ou un train, Live View peut vous aider à trouver l’ascenseur et les escaliers mécaniques les plus proches, votre porte, votre plate-forme, la récupération des bagages, les comptoirs d’enregistrement, la billetterie, les toilettes, agence conseil seo les guichets automatiques et plus encore. »

Météo et qualité de l’air Une nouvelle couche météo dans Google Maps affiche la température et les conditions météorologiques actuelles et prévues dans une zone. Et une nouvelle couche de qualité de l’air vous montre à quel point l’air est sain (ou malsain) dans cette zone. Ces couches commencent à être déployées sur Android et iOS dans les mois à venir. La couche météorologique sera disponible dans le monde entier et la couche de qualité de l’air sera lancée en Australie, en Inde et aux États-Unis.

Options de voyage écologiques Google Maps, avec les informations du National Renewable Energy Lab du département américain de l’énergie, élabore un nouveau modèle de routage qui optimise la consommation de carburant en fonction de facteurs tels que l’inclinaison de la route et la congestion du trafic. Google Maps utilisera par défaut l’itinéraire avec l’empreinte carbone la plus faible lorsqu’il a approximativement le même ETA que l’itinéraire le plus rapide. Des itinéraires écologiques seront lancés aux États-Unis sur Android et iOS plus tard cette année, avec une expansion mondiale en cours.

La data et son automatisme pour le marketing

Quel est l’intérêt d’un logiciel d’optimisation pour les moteurs de recherche de meilleures méthodes, d’une stratégie de marketing Web par courrier électronique bien réglée et d’une réputation de sites Web sociaux animée si vos clients ne peuvent pas trouver ce qu’ils veulent une fois qu’ils atteignent votre blog? C’est la question que le directeur général de BloomReach, Raj De Datta, pose ouvertement à ses 150 clients environ, qui couvrent tout, du grand magasin de luxe Neiman Marcus au magasin en ligne cool ModCloth. «Aujourd’hui, c’est comme entrer dans Goal», affirme De Datta sur de nombreux sites de commerce électronique. « Je cherche des jouets et des jeux. Quelqu’un d’autre veut une veste polaire. Mais nous commençons tous les deux à voir le même détaillant, même si nous sommes pour une explication très différente. » À partir d’une page d’accueil de commerce Internet normale, les acheteurs peuvent soit utiliser la fonction de recherche, soit parcourir un certain nombre de niveaux de menus, souhaitant découvrir une marchandise particulière. Bien qu’avec le logiciel SNAP de BloomReach, les consommateurs accèdent à la boutique et ne découvrent que la marchandise dont ils ont besoin, car l’application a déterminé de manière anonyme leurs intentions et leurs choix en fonction des voyages précédents vers le site Internet, de la terminologie qu’ils préfèrent, des backlinks cliqués sur le site Web. , les points communs du contenu qu’ils ingèrent sur le site Web, la zone récente et le système sur lequel ils se trouvent – aucune connexion ou mot de passe de sécurité n’est nécessaire. En effet, la demande de diplôme d’entreprise de BloomReach – qui facture aux commerçants 7500 $ par mois ou plus, en fonction du nombre de visiteurs exclusifs du site – s’attaque au tout dernier kilomètre du marketing et de la publicité en ligne. «J’ai découvert que personne n’explorait seul le site Web», explique De Datta. « Tout le monde recevait une approche de taille unique. » Avec SNAP, l’objectif serait d’utiliser des détails majeurs pour aider les acheteurs un par un, en fonction de leur objectif actuel, et non de leurs détails de marché ou de leur dossier d’acquisition. «Nous avons la capacité de comprendre les clients avec une précision de 99%», déclare De Datta à propos de «l’apprentissage automatique» de son entreprise, qui fonctionne même lorsque le client a déjà visité un site via un appareil mobile et utilise désormais un navigateur Web. Si BloomReach réussit, cela réduira considérablement la quantité de techniques entre l’utilisation du site Web d’un site de commerce électronique et le clic sur le bouton « Augmenter le panier ». Pour les e-commerçants, le charme de SNAP, au-delà de sa capacité à bien mieux offrir les articles spécifiques que les gens veulent, est qu’ils n’ont pas à reconstruire complètement leurs sites Web pour travailler avec. Le service centré sur le cloud indexe automatiquement chaque page Web – et chaque nouvelle page Web incluse – sur le site Web d’un client et fournit rapidement aux invités le contenu approprié sur ces pages Web. Pour les détaillants qui ajoutent et suppriment d’innombrables marchandises chaque semaine des sites, cet attribut signifie qu’ils peuvent le publier et ont tendance à l’oublier. Un autre avantage: contrairement aux tests A / B, qui peuvent durer plusieurs semaines pour être efficaces grâce à, la découverte de l’équipement agrégé de BloomReach, basée sur des données constamment à jour de tous ses consommateurs et de plus de 30 sources de données publiques ouvertes, réduit le temps de latence. entre l’application et le succès. Pour ModCloth, l’innovation technologique de base qui alimente SNAP s’est traduite par une augmentation de quarante pour cent des voyages vers des pages Web de produits ou de services personnels – un signal que les gens ont découvert les choses qu’ils espéraient trouver. Comme l’a souligné De Datta, les technologies qui alimentent BloomReach sont complexes mais servent à une opération simple: c’est la réponse au client qui surfe sur un site Internet pour trouver votre meilleure tenue d’été verte et ne sait rien de ce qu’elle aimerait d’ailleurs, « je vais sachez-le une fois que je le vois. «