Blog

Ce que nous disons

Meta / Facebook ne pourra pas se relever tant que Mark Zuckerberg en demeure le PDG, selon Frances Haugen,

https://www.applitech.ci/themes/user/site/default/asset/imagesBlog/gfdgdgdgdf.jpg

La valeur marchande de Meta a chuté d'un montant supérieur à 500

milliards de dollars. Meta, qui était autrefois la sixième plus grande

entreprise mondiale en matière de capitalisation boursière, ne figure

même plus parmi les dix premières du classement. Les actions ont chuté

de plus de 45 % depuis qu'elles ont atteint un sommet historique de

384,33 $ en septembre dernier, effaçant plus de 500 milliards de dollars

de valeur marchande au cours de cette période.

Le récent

ralentissement a coïncidé avec la publication d'un rapport trimestriel

lamentable qui montrait que Facebook avait enregistré une baisse de sa

base d'utilisateurs quotidienne moyenne pour la première fois dans

l'histoire de l'entreprise. Zuckerberg a imputé la stagnation de

l'activité des utilisateurs à la concurrence accrue de plateformes

rivales telles que TikTok.

Meta a perdu plus de 200 milliards de

dollars de valeur en une seule journée de négociation à la suite du

rapport – ce qui était la plus forte baisse de valeur marchande d'une

journée de toutes les actions de l'histoire des États-Unis, selon Dow

Jones.





Facebook était autrefois une entreprise qui valait plus de 1 000

milliards de dollars, grâce à son système de suivi impeccable.

Cependant, la nouvelle fonctionnalité d'Apple qui permet à ses

utilisateurs de choisir de bloquer les traceurs publicitaires a

neutralisé cette force de Facebook. Même la base d'utilisateurs de

Facebook a commencé à diminuer après une vague de révélations de

lanceurs d'alerte, montrant les effets néfastes des médias sociaux pour

les jeunes utilisateurs.

Mark Zuckerberg a fondé Facebook il y a

environ 18 ans. Il a décidé de renommer son entreprise. L'annonce a été

faite durant l'édition 2021 de la Facebook Connect. Comme Google l'avait

fait auparavant en présentant Alphabet, Meta est la maison-mère de

différentes entreprises dont Facebook, WhatsApp, Instagram, Messenger et

Oculus. « Notre marque était trop liée à un seul de nos services et ne

reflétait pas tout ce que nous faisons », a expliqué le PDG du groupe.

« Ce nouveau nom marque notre nouvel objectif : aider à donner vie au

métavers. »

Le projet, en développement dans le département

Facebook Reality Labs (qui s'occupe des technologies de réalité

augmentée, virtuelle et mixte), compte actuellement 10 000 salariés aux

États-Unis. Facebook a annoncé le recrutement dans les cinq prochaines

années de 10 000 ingénieurs et développeurs supplémentaires en Europe.

Un projet pour lequel Facebook a réservé 10 milliards de dollars rien

que pour 2021, une addition qui sera donc plus salée les années à venir.

Cette

décision a été perçue par certains comme une manœuvre de distraction.

Selon eux, Zuckerberg s'est efforcé de rebaptiser l'entreprise pour

faire oublier la série de scandales liés à Facebook et Instagram, mais

aussi l'examen minutieux par le Congrès de l'impact des plateformes de

médias sociaux sur les jeunes utilisateurs.

Le modèle commercial de Facebook repose principalement sur la diffusion de publicité, notamment :

  • vendre des publicités numériques en fonction des sites visités et du comportement des utilisateurs sur Internet ;
  • ou vendre des publicités en fonction de ce que les utilisateurs recherchent sur les moteurs de recherche.


C'est la raison pour laquelle les utilisateurs recevaient des publicités

pour des produits dont ils ne savaient même pas qu'ils avaient besoin.

Cependant, récemment Apple et Google, pour leur propre avantage, ont

décidé de donner aux utilisateurs la possibilité de désactiver le suivi

des publicités sur leurs supports. Les retombées ont conduit les

annonceurs à transférer l'intégralité de leur budget publicitaire vers

Google, répertoriant Facebook comme non rentable.

Changer de dirigeant serait salutaire pour l'entreprise, estime Frances Haugen

Frances

Haugen, 37 ans, est une data scientist originaire de l'Iowa, diplômée

en ingénierie informatique et titulaire d'une maîtrise en commerce de

Harvard. Selon un profil LinkedIn désormais supprimé, Haugen était un

chef de produit chez Facebook affecté au groupe Civic Integrity. Elle a

choisi de quitter l'entreprise après la dissolution du groupe. Elle a

dit qu'elle n'avait « pas confiance dans le fait qu'ils étaient prêts à

investir pour empêcher Facebook d'être dangereux ».

La

dénonciatrice de Facebook a estimé que la grande enseigne des médias

sociaux ne pourra pas récupérer tant que Mark Zuckerberg ne quittera pas

ses fonctions de directeur général.

Ce n'est pas la première

fois qu'elle fait une telle recommandation. En effet, lors de la soirée

d'ouverture de l'édition 2021 du Web Summit, un festival technologique

attirant des dizaines de milliers de personnes dans la capitale

portugaise, Lisbonne, elle a déclaré : « Je pense qu'il est peu probable

que l'entreprise change si [Mark Zuckerberg] reste le PDG ».

Commentant

le changement de marque, Haugen a déclaré que cela n'avait aucun sens

compte tenu des problèmes de sécurité qui n'ont pas encore été résolus.

« Encore

et encore, Facebook choisit l'expansion dans de nouveaux domaines

plutôt que de s'en tenir à ce qu'il a déjà fait. Je trouve cela

inadmissible... Il faut consacrer plus de ressources aux systèmes de

sécurité de base », a-t-elle déclaré devant une foule animée qui a

fréquemment applaudi pendant qu'elle parlait.

« Au lieu

d'investir pour s'assurer que leurs plateformes sont un minimum sûres,

ils sont sur le point [d'engager] 10 000 ingénieurs » en Europe pour le

développement du "métavers" », a-t-elle ajouté à propos du monde

parallèle numérique qui représente, selon le patron de Facebook,

l'avenir d'internet. « Je ne peux imaginer comment cela peut avoir du

sens », a-t-elle encore dit.

Plus tôt ce mois-ci, dans une

interview avec Bloomberg, elle a expliqué ce qui l'avait obligée à

prendre publiquement la parole après avoir quitté l'entreprise en mai

2021.

Haugen a pris des dizaines de milliers de pages de documents montrant
que la grande enseigne des médias sociaux savait que ses produits
nuisaient à la santé mentale des adolescents, fomentaient la violence
ethnique dans des pays comme l'Éthiopie et n'ont pas réussi à lutter
contre la désinformation avant les émeutes de Washington DC le 6 janvier
de l'année dernière.

Elle a déclaré à Bloomberg que Zuckerberg
« croit sincèrement que Facebook n'est qu'un miroir » de la réalité et
que « si vous êtes mécontent, c'est parce que vous pouvez vous voir
maintenant [sur ce miroir de la réalité] ».

« Depuis l'âge de 19
ans, Mark est entouré de gens qui lui ont dit qu'il faisait un excellent
travail » a-t-elle déclaré, ajoutant « nous pouvons diaboliser
Zuckerberg, mais cela ne le fera pas guérir plus vite ».

Haugen a
estimé que, contrairement à la plupart des autres entreprises
publiques, Zuckerberg détient 56 % des droits de vote : « Personne, en
dehors de Mark Zuckerberg, ne peut contrôler Facebook en ce moment ».

Lorsqu'Emma
Barnett de Bloomberg lui a demandé si Zuckerberg devait démissionner,
elle a répondu : « Je ne pense pas que l'entreprise puisse se relever
tant qu'il en est le chef ».

Haugen a parlé d'un changement que
Facebook a apporté à son algorithme (qui décide de ce que vous voyez sur
votre fil d'actualité Facebook) en 2018 pour déclencher des réactions
des utilisateurs. « Alors, vous savez, vous avez votre téléphone. Vous
pourriez ne voir que 100 éléments de contenu si vous vous asseyez et
faites défiler pendant, disons, cinq minutes. Mais Facebook a des
milliers d'options qu'il pourrait vous montrer. L'algorithme choisit
parmi ces options en fonction du type de contenu avec lequel vous vous
êtes le plus engagé dans le passé. Et l'une des conséquences de la façon
dont Facebook sélectionne ce contenu aujourd'hui, c'est qu'il s'agit
d'optimiser le contenu qui suscite l'engagement ou la réaction. Mais ses
propres recherches montrent qu'un contenu haineux, qui divise, qui
polarise, inspire plus facilement aux gens de la colère que d'autres
émotions ».

Le contenu extrême est le plus distribué dans « des
endroits linguistiquement divers », a déclaré Haugen à Bloomberg, ce qui
signifie qu'ils utilisaient la « version la plus dangereuse de
Facebook » et laissaient de la place aux discours de haine.

Pour
mémoire, des dizaines de documents Facebook qu'elle a publiés et qui ont
été examinés par le Wall Street Journal montrent que des employés
Facebook ont tiré la sonnette d'alarme sur la façon dont ses plateformes
sont utilisées dans les pays en développement, où sa base
d'utilisateurs est énorme et en expansion. Les employés ont signalé que
des trafiquants d'êtres humains au Moyen-Orient utilisaient les
plateformes pour proposer des « femmes de ménage à vendre » qui étaient
présentées comme du personnel corvéable à merci, sans contrat de travail
ni protection sociale et confiscation du passeport.



À maintes reprises, montrent les documents, les chercheurs de Facebook
ont identifié les effets néfastes de la plateforme. À maintes reprises,
malgré les audiences du Congrès, ses propres engagements et de nombreux
exposés médiatiques, la société ne les a pas corrigés. Les documents
offrent peut-être l'image la plus claire à ce jour de l'étendue de la
connaissance des problèmes de Facebook au sein de l'entreprise, jusqu'au
directeur général lui-même.

À la lecture des documents internes,
des employés de Facebook ont averti que des groupes armés en Éthiopie
utilisaient le site pour inciter à la violence contre les minorités
ethniques. Ils ont envoyé des alertes à leurs patrons sur l'utilisation
des plateformes pour la vente d'organes, la pédopornographie et l'action
du gouvernement contre la dissidence politique. Les documents ont
montré également la réponse de l'entreprise, qui dans de nombreux cas
est inadéquate ou inexistante. Un porte-parole de Facebook a déclaré que
la société avait déployé des équipes mondiales, des partenariats locaux
et des vérificateurs de faits tiers pour assurer la sécurité des
utilisateurs.

En 2018, Facebook a annoncé avoir procédé à un
changement dans son algorithme afin d'améliorer sa plateforme et
d'arrêter les signes de déclin de l'engagement des utilisateurs.
Zuckerberg a déclaré que son objectif était de renforcer les liens entre
les utilisateurs et d'améliorer leur bien-être en favorisant les
interactions entre amis et famille. Au sein de l'entreprise, montrent
les documents, les membres du personnel ont averti que le changement
avait l'effet inverse. Cela rendait Facebook et ceux qui l'utilisaient
encore plus en colère. Zuckerberg a résisté à certaines corrections
proposées par son équipe, selon les documents, car il craignait qu'elles
conduisent les gens à moins interagir avec Facebook. Facebook, en
réponse, affirme que tout algorithme peut promouvoir un contenu
répréhensible ou préjudiciable et que l'entreprise fait de son mieux
pour atténuer le problème.

Les modérateurs de contenu alimentés
par l'intelligence artificielle de Facebook ne peuvent pas lire
certaines langues utilisées sur la plateforme, ce qui soulève des
inquiétudes quant à la façon dont l'entreprise contrôle le contenu dans
les pays qui parlent des langues autres que l'anglais, a rapporté jeudi
le Wall Street Journal.

Le Journal a consulté des documents de
l'entreprise qui montrent que Facebook n'a pas suffisamment d'employés
capables de parler les langues locales pour surveiller les événements
dans d'autres pays, des marchés sur lesquels l'entreprise s'est
développée pour renforcer sa base d'utilisateurs non américains. Plus de
90 % des utilisateurs mensuels de Facebook se trouvent en dehors de
l'Amérique du Nord, selon le Journal.

Le rapport montre comment
le manque de modérateurs humains possédant des compétences multilingues
(combiné aux lacunes de l'utilisation de robots pour éliminer les
messages toxiques)affaiblit la capacité de Facebook à surveiller le
contenu préjudiciable en ligne, un sujet qui l'a soumis à un examen
minutieux dans plusieurs pays ces dernières années.

Les employés
de Facebook ont ​​exprimé leurs inquiétudes quant à la façon dont le
système a permis à de mauvais acteurs d'utiliser le site à des fins
néfastes, selon les documents consultés par The Journal.

Daniel
Motaung a déclaré qu'il avait tenté de créer un syndicat d'employés en
raison du contenu traumatisant que les modérateurs devaient regarder,
mais qu'il avait été licencié en raison de ses actions.

« Le fait
qu'il [Zuckerberg] ait tenté une diversion en évoquant le métavers
lorsque j'ai soulevé des problèmes de génocide », a ajouté Haugen dans
l'interview, « au lieu de réellement sécuriser ces systèmes. Je pense
que c'est un manquement au devoir ».

Source : interview de Frances Haugen (vidéo dans le texte)

Commentaires

Il n'y a aucun commentaire pour cette publication.