La valeur marchande de Meta a chuté d'un montant supérieur à 500
milliards de dollars. Meta, qui était autrefois la sixième plus grande
entreprise mondiale en matière de capitalisation boursière, ne figure
même plus parmi les dix premières du classement. Les actions ont chuté
de plus de 45 % depuis qu'elles ont atteint un sommet historique de
384,33 $ en septembre dernier, effaçant plus de 500 milliards de dollars
de valeur marchande au cours de cette période.
Le récent
ralentissement a coïncidé avec la publication d'un rapport trimestriel
lamentable qui montrait que Facebook avait enregistré une baisse de sa
base d'utilisateurs quotidienne moyenne pour la première fois dans
l'histoire de l'entreprise. Zuckerberg a imputé la stagnation de
l'activité des utilisateurs à la concurrence accrue de plateformes
rivales telles que TikTok.
Meta a perdu plus de 200 milliards de
dollars de valeur en une seule journée de négociation à la suite du
rapport – ce qui était la plus forte baisse de valeur marchande d'une
journée de toutes les actions de l'histoire des États-Unis, selon Dow
Jones.
Facebook était autrefois une entreprise qui valait plus de 1 000
milliards de dollars, grâce à son système de suivi impeccable.
Cependant, la nouvelle fonctionnalité d'Apple qui permet à ses
utilisateurs de choisir de bloquer les traceurs publicitaires a
neutralisé cette force de Facebook. Même la base d'utilisateurs de
Facebook a commencé à diminuer après une vague de révélations de
lanceurs d'alerte, montrant les effets néfastes des médias sociaux pour
les jeunes utilisateurs.
Mark Zuckerberg a fondé Facebook il y a
environ 18 ans. Il a décidé de renommer son entreprise. L'annonce a été
faite durant l'édition 2021 de la Facebook Connect. Comme Google l'avait
fait auparavant en présentant Alphabet, Meta est la maison-mère de
différentes entreprises dont Facebook, WhatsApp, Instagram, Messenger et
Oculus. « Notre marque était trop liée à un seul de nos services et ne
reflétait pas tout ce que nous faisons », a expliqué le PDG du groupe.
« Ce nouveau nom marque notre nouvel objectif : aider à donner vie au
métavers. »
Le projet, en développement dans le département
Facebook Reality Labs (qui s'occupe des technologies de réalité
augmentée, virtuelle et mixte), compte actuellement 10 000 salariés aux
États-Unis. Facebook a annoncé le recrutement dans les cinq prochaines
années de 10 000 ingénieurs et développeurs supplémentaires en Europe.
Un projet pour lequel Facebook a réservé 10 milliards de dollars rien
que pour 2021, une addition qui sera donc plus salée les années à venir.
Cette
décision a été perçue par certains comme une manœuvre de distraction.
Selon eux, Zuckerberg s'est efforcé de rebaptiser l'entreprise pour
faire oublier la série de scandales liés à Facebook et Instagram, mais
aussi l'examen minutieux par le Congrès de l'impact des plateformes de
médias sociaux sur les jeunes utilisateurs.
Le modèle commercial de Facebook repose principalement sur la diffusion de publicité, notamment :
C'est la raison pour laquelle les utilisateurs recevaient des publicités
pour des produits dont ils ne savaient même pas qu'ils avaient besoin.
Cependant, récemment Apple et Google, pour leur propre avantage, ont
décidé de donner aux utilisateurs la possibilité de désactiver le suivi
des publicités sur leurs supports. Les retombées ont conduit les
annonceurs à transférer l'intégralité de leur budget publicitaire vers
Google, répertoriant Facebook comme non rentable.
Changer de dirigeant serait salutaire pour l'entreprise, estime Frances Haugen
Frances
Haugen, 37 ans, est une data scientist originaire de l'Iowa, diplômée
en ingénierie informatique et titulaire d'une maîtrise en commerce de
Harvard. Selon un profil LinkedIn désormais supprimé, Haugen était un
chef de produit chez Facebook affecté au groupe Civic Integrity. Elle a
choisi de quitter l'entreprise après la dissolution du groupe. Elle a
dit qu'elle n'avait « pas confiance dans le fait qu'ils étaient prêts à
investir pour empêcher Facebook d'être dangereux ».
La
dénonciatrice de Facebook a estimé que la grande enseigne des médias
sociaux ne pourra pas récupérer tant que Mark Zuckerberg ne quittera pas
ses fonctions de directeur général.
Ce n'est pas la première
fois qu'elle fait une telle recommandation. En effet, lors de la soirée
d'ouverture de l'édition 2021 du Web Summit, un festival technologique
attirant des dizaines de milliers de personnes dans la capitale
portugaise, Lisbonne, elle a déclaré : « Je pense qu'il est peu probable
que l'entreprise change si [Mark Zuckerberg] reste le PDG ».
Commentant
le changement de marque, Haugen a déclaré que cela n'avait aucun sens
compte tenu des problèmes de sécurité qui n'ont pas encore été résolus.
« Encore
et encore, Facebook choisit l'expansion dans de nouveaux domaines
plutôt que de s'en tenir à ce qu'il a déjà fait. Je trouve cela
inadmissible... Il faut consacrer plus de ressources aux systèmes de
sécurité de base », a-t-elle déclaré devant une foule animée qui a
fréquemment applaudi pendant qu'elle parlait.
« Au lieu
d'investir pour s'assurer que leurs plateformes sont un minimum sûres,
ils sont sur le point [d'engager] 10 000 ingénieurs » en Europe pour le
développement du "métavers" », a-t-elle ajouté à propos du monde
parallèle numérique qui représente, selon le patron de Facebook,
l'avenir d'internet. « Je ne peux imaginer comment cela peut avoir du
sens », a-t-elle encore dit.
Plus tôt ce mois-ci, dans une
interview avec Bloomberg, elle a expliqué ce qui l'avait obligée à
prendre publiquement la parole après avoir quitté l'entreprise en mai
2021.
Haugen a pris des dizaines de milliers de pages de documents montrant
que la grande enseigne des médias sociaux savait que ses produits
nuisaient à la santé mentale des adolescents, fomentaient la violence
ethnique dans des pays comme l'Éthiopie et n'ont pas réussi à lutter
contre la désinformation avant les émeutes de Washington DC le 6 janvier
de l'année dernière.
Elle a déclaré à Bloomberg que Zuckerberg
« croit sincèrement que Facebook n'est qu'un miroir » de la réalité et
que « si vous êtes mécontent, c'est parce que vous pouvez vous voir
maintenant [sur ce miroir de la réalité] ».
« Depuis l'âge de 19
ans, Mark est entouré de gens qui lui ont dit qu'il faisait un excellent
travail » a-t-elle déclaré, ajoutant « nous pouvons diaboliser
Zuckerberg, mais cela ne le fera pas guérir plus vite ».
Haugen a
estimé que, contrairement à la plupart des autres entreprises
publiques, Zuckerberg détient 56 % des droits de vote : « Personne, en
dehors de Mark Zuckerberg, ne peut contrôler Facebook en ce moment ».
Lorsqu'Emma
Barnett de Bloomberg lui a demandé si Zuckerberg devait démissionner,
elle a répondu : « Je ne pense pas que l'entreprise puisse se relever
tant qu'il en est le chef ».
Haugen a parlé d'un changement que
Facebook a apporté à son algorithme (qui décide de ce que vous voyez sur
votre fil d'actualité Facebook) en 2018 pour déclencher des réactions
des utilisateurs. « Alors, vous savez, vous avez votre téléphone. Vous
pourriez ne voir que 100 éléments de contenu si vous vous asseyez et
faites défiler pendant, disons, cinq minutes. Mais Facebook a des
milliers d'options qu'il pourrait vous montrer. L'algorithme choisit
parmi ces options en fonction du type de contenu avec lequel vous vous
êtes le plus engagé dans le passé. Et l'une des conséquences de la façon
dont Facebook sélectionne ce contenu aujourd'hui, c'est qu'il s'agit
d'optimiser le contenu qui suscite l'engagement ou la réaction. Mais ses
propres recherches montrent qu'un contenu haineux, qui divise, qui
polarise, inspire plus facilement aux gens de la colère que d'autres
émotions ».
Le contenu extrême est le plus distribué dans « des
endroits linguistiquement divers », a déclaré Haugen à Bloomberg, ce qui
signifie qu'ils utilisaient la « version la plus dangereuse de
Facebook » et laissaient de la place aux discours de haine.
Pour
mémoire, des dizaines de documents Facebook qu'elle a publiés et qui ont
été examinés par le Wall Street Journal montrent que des employés
Facebook ont tiré la sonnette d'alarme sur la façon dont ses plateformes
sont utilisées dans les pays en développement, où sa base
d'utilisateurs est énorme et en expansion. Les employés ont signalé que
des trafiquants d'êtres humains au Moyen-Orient utilisaient les
plateformes pour proposer des « femmes de ménage à vendre » qui étaient
présentées comme du personnel corvéable à merci, sans contrat de travail
ni protection sociale et confiscation du passeport.
À maintes reprises, montrent les documents, les chercheurs de Facebook
ont identifié les effets néfastes de la plateforme. À maintes reprises,
malgré les audiences du Congrès, ses propres engagements et de nombreux
exposés médiatiques, la société ne les a pas corrigés. Les documents
offrent peut-être l'image la plus claire à ce jour de l'étendue de la
connaissance des problèmes de Facebook au sein de l'entreprise, jusqu'au
directeur général lui-même.
À la lecture des documents internes,
des employés de Facebook ont averti que des groupes armés en Éthiopie
utilisaient le site pour inciter à la violence contre les minorités
ethniques. Ils ont envoyé des alertes à leurs patrons sur l'utilisation
des plateformes pour la vente d'organes, la pédopornographie et l'action
du gouvernement contre la dissidence politique. Les documents ont
montré également la réponse de l'entreprise, qui dans de nombreux cas
est inadéquate ou inexistante. Un porte-parole de Facebook a déclaré que
la société avait déployé des équipes mondiales, des partenariats locaux
et des vérificateurs de faits tiers pour assurer la sécurité des
utilisateurs.
En 2018, Facebook a annoncé avoir procédé à un
changement dans son algorithme afin d'améliorer sa plateforme et
d'arrêter les signes de déclin de l'engagement des utilisateurs.
Zuckerberg a déclaré que son objectif était de renforcer les liens entre
les utilisateurs et d'améliorer leur bien-être en favorisant les
interactions entre amis et famille. Au sein de l'entreprise, montrent
les documents, les membres du personnel ont averti que le changement
avait l'effet inverse. Cela rendait Facebook et ceux qui l'utilisaient
encore plus en colère. Zuckerberg a résisté à certaines corrections
proposées par son équipe, selon les documents, car il craignait qu'elles
conduisent les gens à moins interagir avec Facebook. Facebook, en
réponse, affirme que tout algorithme peut promouvoir un contenu
répréhensible ou préjudiciable et que l'entreprise fait de son mieux
pour atténuer le problème.
Les modérateurs de contenu alimentés
par l'intelligence artificielle de Facebook ne peuvent pas lire
certaines langues utilisées sur la plateforme, ce qui soulève des
inquiétudes quant à la façon dont l'entreprise contrôle le contenu dans
les pays qui parlent des langues autres que l'anglais, a rapporté jeudi
le Wall Street Journal.
Le Journal a consulté des documents de
l'entreprise qui montrent que Facebook n'a pas suffisamment d'employés
capables de parler les langues locales pour surveiller les événements
dans d'autres pays, des marchés sur lesquels l'entreprise s'est
développée pour renforcer sa base d'utilisateurs non américains. Plus de
90 % des utilisateurs mensuels de Facebook se trouvent en dehors de
l'Amérique du Nord, selon le Journal.
Le rapport montre comment
le manque de modérateurs humains possédant des compétences multilingues
(combiné aux lacunes de l'utilisation de robots pour éliminer les
messages toxiques)affaiblit la capacité de Facebook à surveiller le
contenu préjudiciable en ligne, un sujet qui l'a soumis à un examen
minutieux dans plusieurs pays ces dernières années.
Les employés
de Facebook ont exprimé leurs inquiétudes quant à la façon dont le
système a permis à de mauvais acteurs d'utiliser le site à des fins
néfastes, selon les documents consultés par The Journal.
Daniel
Motaung a déclaré qu'il avait tenté de créer un syndicat d'employés en
raison du contenu traumatisant que les modérateurs devaient regarder,
mais qu'il avait été licencié en raison de ses actions.
« Le fait
qu'il [Zuckerberg] ait tenté une diversion en évoquant le métavers
lorsque j'ai soulevé des problèmes de génocide », a ajouté Haugen dans
l'interview, « au lieu de réellement sécuriser ces systèmes. Je pense
que c'est un manquement au devoir ».
Source : interview de Frances Haugen (vidéo dans le texte)
Commenting for this entry has expired.