Sécurité et confidentialité en actualités

  • Réponses :137
Luna
  • Admin
  • Posts de Forum 72 338

18 mars 2024 à 13:23:05 via site

image

⏩️La Commission de l'IA recommande de moderniser la CNIL⏪️

La Commission de l'IA publie une liste de recommandations pour faire du pays, un champion mondial en la matière, au point de moderniser la CNIL pour faciliter l’accès à nos données santé, est-ce que c'est vraiment ça être un champion ?

La Commission interministérielle de l’intelligence artificielle de France vient de publier une liste de recommandations en 6 axes pour faire du pays un champion en la matière à l’échelle mondiale. C’est une espèce de redite après l’annonce, par Emmanuel Macron, d’un investissement de 500 millions d’euros visant à faire de la France un pôle européen de l’intelligence artificielle ou encore après celle de la mise à disponibilité d’une enveloppe de 2 milliards d’euros pour la formation d’un nombre plus important de talents en intelligence artificielle

  • Lancer immédiatement un plan de sensibilisation et de formation de la nation : animation de débats publics en continu sur les impacts économiques et sociétaux de l’IA au plus près des lieux du quotidien, structuration de l’offre de formation d’enseignement supérieur, massification de la formation continue aux outils d’IA, intégration de l’IA comme objet et outil du dialogue social
  • Réorienter structurellement l’épargne vers l’innovation et créer, à court terme, un fonds « France & IA » de 10 Md€, pour financer l’émergence de l’écosystème d’IA et la transformation du tissu économique français

  • Faire de la France un pôle majeur de la puissance de calcul : approvisionnement collectif sécurisé d’ampleur nationale et européenne, appel à projets d’implantation de centres de calcul avec garantie publique d’utilisation et simplification des procédures, crédit d’impôt IA pour l’entraînement de modèles

  • Faciliter l’accès aux données : en matière de données à caractère personnel, modernisation du mandat de la Commission nationale de l’informatique et des libertés (Cnil) et de son collège, suppression de certaines procédures d’autorisation préalable d’accès aux données de santé et réduction des délais de réponse
  • En matière culturelle, mise en place de l’infrastructure technique favorisant l’entraînement des modèles d’IA dans le respect des droits de propriété intellectuelle

  • Assumer le principe d’une « exception IA » dans la recherche publique : libération des chercheurs des contraintes administratives, revalorisation de leur rémunération, doublement des moyens de la recherche publique spécialisée en IA

  • Promouvoir une gouvernance mondiale de l’IA : création d’une Organisation mondiale de l’IA pour évaluer et encadrer les systèmes d’IA, d’un Fonds international pour l’IA au service de l’intérêt général et d’un mécanisme de solidarité « 1 % IA » pour les pays en voie de développement.

🍃Des recommandations qui encore une fois veulent redéfinir l’accès à nos données personnelles de santé, on en reparlera !!

https://www.nextpit.fr/forum/823999/securite-et-confidentialite-en-actualites/page/2#3490618

— Modifié le 18 mars 2024 à 14:36:18

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

25 mars 2024 à 10:59:48 via site

image

⏩️Un juge ordonne à YouTube de révéler l'identité de tous ceux qui ont visionné certaines vidéos pour les besoins d'une enquête criminelle⏪️

Les mandats de perquisition qui ordonne à YouTube de révéler l'identité de tous ceux qui ont visionné certaines vidéos se transforment en filets de pêche numériques et menacent de transformer des spectateurs innocents de YouTube en suspects criminels !!

Dans un développement sans précédent qui soulève des questions importantes sur la vie privée et la surveillance, un juge a ordonné à YouTube de fournir les noms, adresses, numéros de téléphone et activités des utilisateurs de comptes YouTube, ainsi que les adresses IP, de tous ceux qui ont visionné certaines vidéos sélectionnées. Cette décision fait suite à une enquête criminelle fédérale où Google, la société mère de YouTube, a été contraint de remettre ces informations.

Les vidéos en question ont été visionnées plus de 30 000 fois, ce qui signifie que les données de milliers d’utilisateurs non liés à l’affaire pourraient être divulguées. Les experts en confidentialité et les groupes de défense des droits civiques ont exprimé leur inquiétude, affirmant que ces ordonnances sont inconstitutionnelles car elles menacent de transformer des spectateurs innocents de YouTube en suspects criminels.

Les critiques soutiennent que de telles demandes transforment les mandats de perquisition en filets de pêche numériques, ciblant potentiellement des individus non associés à un crime, simplement en fonction de ce qu’ils ont pu regarder en ligne. Elles craignent toujours que des agences gouvernementales outrepassent leurs compétences et utilisent leur pouvoir pour obtenir des informations sensibles sur des personnes qui ont simplement regardé des vidéos spécifiques sur YouTube et qui ne font rien d'illégal.

Les experts en matière de protection de la vie privée ont déclaré que ces ordonnances étaient inconstitutionnelles parce qu'elles menaçaient d'annuler les protections prévues par les 1er et 4ème amendements, qui couvrent la liberté d'expression et la protection contre les perquisitions abusives. « Il s'agit du dernier chapitre d'une tendance inquiétante qui voit les agences gouvernementales transformer de plus en plus les mandats de perquisition en dragues numériques. C'est inconstitutionnel, c'est terrifiant et cela se produit tous les jours », a déclaré Albert Fox-Cahn, directeur exécutif du Surveillance Technology Oversight Project. « Personne ne devrait craindre que la police vienne frapper à sa porte simplement à cause de ce que l'algorithme de YouTube propose. Je suis horrifié de voir que les tribunaux autorisent cela ».

Ce que nous regardons en ligne peut révéler des informations très sensibles sur nous - notre politique, nos passions, nos croyances religieuses, et bien plus encore », a déclaré John Davisson, conseiller principal au Electronic Privacy Information Center (Centre d'information sur la vie privée électronique). « Il est normal de s'attendre à ce que les forces de l'ordre n'aient pas accès à ces informations sans motif valable. Cette ordonnance renverse cette hypothèse ».

Cet ordre judiciaire soulève des questions alarmantes sur la protection de la vie privée à l’ère numérique et sur la manière dont les informations personnelles peuvent être utilisées ou abusées dans le cadre d’enquêtes gouvernementales. Alors que cette affaire continue de se développer, elle met en lumière le besoin urgent de débattre et de redéfinir les limites de la surveillance dans un monde de plus en plus connecté.

🍃Une surveillance numérique qui condamne ici ceux qui regardent certains contenus, mais condamne aussi ailleurs, ceux qui ne les regarde pas, on en reparlera !!

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

29 mars 2024 à 14:58:46 via site

image

⏩️Violations de données personnelles : bilan de 5 années de RGPD⏪️

La CNIL dresse le bilan de 5 années de violations des données personnelles avec un piratage massif du secteur privé !!

◾️Le secteur privé est particulièrement ciblé

Le secteur privé est à l'origine d’environ deux tiers des déclarations de violations à la CNIL dont 39 % de PME. Le secteur public représente quant à lui 22 % des notifications.

S’agissant de la répartition par activité, les administrations publiques représentent 18 % des notifications. Les activités spécialisées, scientifiques et techniques sont les plus représentées au sein du privé, suivies par les activités financières et d’assurance. Ce sont des secteurs en fort lien avec les données personnelles. De même, les activités en lien avec la santé humaine représentent aussi 12 % des notifications.

◾️Une violation qui a pour origine des actes malveillants pour plus de la moitié

Plus de la moitié des violations notifiées trouvent leur origine dans du piratage : les rançongiciels sont au premier rang, suivis par les attaques par hameçonnage. Ces dernières sont généralement préalable à d‘autres intrusions, sur le même système voire sur des systèmes d’autres responsables de traitement. Les analyses montrent que le secteur public est plus touché par l'hameçonnage, tandis que le secteur privé est davantage concerné par les rançongiciels

◾️Et le rôle de la CNIL dans tout ça ?

Dans son traitement des notifications, la CNIL privilégie l’accompagnement des acteurs. Son but d’aider les professionnels concernés à prendre toutes les mesures pour limiter les conséquences d’une violation, pour les personnes concernées en premier lieu, ainsi que pour les professionnels eux-mêmes. Elle peut en outre apporter un conseil sur les mesures préventives en matière de cybersécurité.

Lorsque cela est nécessaire, la CNIL prend contact avec les organismes pour :

  • Vérifier que des mesures ont été prises préalablement et / ou postérieurement à la violation : elle indique au responsable, les améliorations à mettre en œuvre par exemple sur l’utilisation d’un algorithme de chiffrement adapté ou l’optimisation de la gestion des mots de passe, elle renvoie également les responsables vers les services de police pour porter plainte, ou vers la plateforme cybermalveillance.gouv.fr afin de trouver une information ou un prestataire.

  • Évaluer la nécessité, prévue par le RGPD, de réaliser une information des personnes. Pour chaque notification, la CNIL estime le risque engendré pour les personnes puis peut être amenée à recommander à l’organisme de les informer de la violation.

🍃Un rôle de gendarme crucial pour protéger nos données et préserver les libertés individuelles, on en reparlera !!

— Modifié le 29 mars 2024 à 15:05:50

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

3 avr. 2024 à 11:38:41 via site

Google supprime nos données collectées depuis le mode incognito pour éviter de payer l’amende

Nos données collectées depuis le mode incognito à 5 milliards de dollars, Google n'en veut pas, il préfère les supprimer !!

Après plusieurs mois de discussion, les plaignants et Google sont tombés d’accord. Le géant de la tech s’est engagé à supprimer les milliards de données personnelles qu’il possède. Dans les prochains moins, il indiquera sur la page d’accueil du mode navigation privée de Chrome que les informations personnelles de ses utilisateurs peuvent toujours être collectées. En faisant ces concessions, le groupe évitera de passer devant les tribunaux et d’avoir à payer une amende pouvant aller jusqu’à 5 milliards de dollars.

◾️Un mode incognito qui n'a jamais été un mode navigation privée

Offert par la plupart des navigateurs du marché, le mode privé ne fait rien d’autre que d’effacer vos données de navigation locales de votre ordinateur ou smartphone une fois la session clôturée. Votre parcours utilisateur sur les sites web est toujours enregistré par les administrateurs des sites visités ; votre adresse IP reste la même, et votre fournisseur d’accès à Internet (FAI) a une connaissance aussi claire des sites que vous visitez que lors d’une navigation classique.
De plus, grâce au fingerprinting, utiliser son navigateur habituel en navigation privée est encore plus contreproductif. Chaque appareil associé à un navigateur dispose d’une sorte d’identifiant, qui n’est pas modifié lors de l’activation du mode Incognito. En d’autres termes : cela revient à vouloir se déguiser en ne chaussant qu’une fausse moustache.

🍃Des recherches à repenser en diversifiant les supports, livres, télé, radio, à la pharmacie ou chez son médecin, on en reparlera !!

— Modifié le 3 avr. 2024 à 11:39:38

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

4 avr. 2024 à 11:53:41 via site

image

⏩️Google veut faire payer les résultats de recherche ⏪️

Google chercherait à s’inspirer du Pay ou OK de Meta, mais cette fois pour nous faire payer les résultats de recherche !!

Google n'a pas raté le train de l'intelligence artificielle. Elle a développé son propre chatbot, Bard, qui depuis a pris le nom de Gemini, l'IA développée par la société. Elle l'a intégrée par exemple à Gmail ou Docs en demandant aux utilisateurs intéressés de payer pour y accéder. En faire de même sur le moteur de recherche est logique, et Google le teste déjà, mais ça revient en quelque sorte à se tirer une balle dans le pied. L'IA sert ici à résumer les résultats de recherche, ce qui là aussi n'incite pas à cliquer sur les liens affichés.

C'est pourquoi, selon les informations du Financial Times, Google envisage de faire payer pour effectuer des recherches boostées à l'IA. C'est la première fois qu'il faudrait payer pour profiter de l'amélioration d'un produit Google gratuit à la base.
Si la décision est actée, elle signerait un changement majeur dans le modèle économique de la firme, et on peut imaginer qu'elle serait appliquée sur plusieurs de ses services à terme. D'après des sources proches du dossier, la fonctionnalité dont il est question est prête à être lancée, mais Google hésite à le faire. Interrogée, l'entreprise indique qu'elle “n'a rien à annoncer pour le moment“.

🍃Tout cela va finir par coûter très cher avec un numérique qui ne pourra plus être accessible au plus grand nombre, on en reparlera !!

https://www.nextpit.fr/forum/823999/securite-et-confidentialite-en-actualites/page/2#3489350

— Modifié le 4 avr. 2024 à 13:15:10

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

10 avr. 2024 à 10:01:52 via site

image

⏩️Comment éviter que vos données de santé ne reviennent vous hanter plus tard⏪️

On se demande comment éviter que ses données de santé reviennent nous hanter plus tard avec toutes les bonnes de réfléchir avant de cliquer !!

◾️Ne tombez pas dans le piège du modèle "à prendre ou à laisser"

Vous l'avez peut-être déjà remarqué, mais de nombreuses entreprises essaient de nous rendre, nous les utilisateurs, responsables de nos données, alors qu'aujourd'hui, les lois sur la protection de la vie privée protègent les gens dans la plupart des pays.

Ce que je veux souligner, c'est que vous ne devriez pas avoir à accepter quoi que ce soit d'invasif pour utiliser un service. Oubliez l'idée que vous devez "prendre ou laisser". Au contraire, exercez votre droit à protéger vos données personnelles: signalez les problèmes, exprimez vos plaintes et poussez les entreprises à modifier leur politique. N'oubliez pas que les droits n'existent que si nous les faisons valoir lorsque c'est nécessaire.

◾️N'ayez pas la flemme de lire la politique de confidentialité

Selon Vincent Chartier, spécialiste de la cybersécurité chez Withings, la chose la plus importante que vous puissiez faire est de lire la politique de confidentialité d'un service avant de l'utiliser:

Si vous trouvez la politique de confidentialité trop complexe à comprendre, cela devrait soulever des inquiétudes quant aux pratiques de l'entreprise en matière de protection de la vie privée.

◾️Un consentement qui doit être la règle, pas de pay ou Okay

Meta et son modèle commercial: Récemment, Meta a introduit le système "Pay or Okay" dans l'UE afin de "se conformer au RGPD" L'entreprise veut maintenant offrir un choix aux utilisateurs: permettre à Meta d'utiliser les informations en ligne des personnes à des fins commerciales, ou payer pour garder leurs informations privées. Cette nouvelle option pourrait modifier la gestion de la vie privée en ligne et soulever des questions quant à son équité. La décision de Meta pourrait inciter d'autres entreprises à faire de la protection de la vie privée en ligne un service payant.

Meta manipule manifestement le concept de consentement. Selon Vincent, l'importance de comprendre le consentement est la clé ici, en particulier pour naviguer dans la confidentialité et la protection des données:
Le consentement ne peut exister que s'il est sans ambiguïté. Vous pouvez le donner librement, ce qui signifie que vous savez exactement ce qui se cache derrière ce consentement, quel processus se cache derrière ce consentement.

◾️Comprendre où le contenu est traité

Considérez les règles applicables à vos données: vous utilisez peut-être un service d'une entreprise allemande, mais les données peuvent être stockées par une entreprise américaine, telle qu'AWS, le principal fournisseur de services en nuage d'Amazon. Mais qui héberge réellement les données?

Le stockage en nuage est actuellement à son apogée. À tel point qu'en 2025, le rapport IDC Data Age prévoit que 49% des données stockées dans le monde résideront dans des environnements de cloud public- Google Cloud Platform, Amazon Web Services ou Microsoft Azure.

Vincent explique qu'"à la base, l'informatique en nuage implique l'exécution de programmes sur l'ordinateur de quelqu'un d'autre, ce qui pose immédiatement des problèmes de contrôle et de sécurité". On comprend donc pourquoi la conformité de ces services avec les réglementations européennes, en particulier le RGPD, suscite de vives inquiétudes. Ne vous méprenez pas, les Américains seront également confrontés aux mêmes problèmes avec les entreprises européennes de services en nuage, mais comme ces entreprises ont une part de marché plus petite, elles ne sont souvent pas perçues avec la même inquiétude.

Ainsi, comme le souligne le spécialiste en cybersécurité de Withings, "la domination des entreprises américaines sur le marché de l'informatique dématérialisée pose des problèmes juridiques et de protection de la vie privée". Les lois américaines, telles que le Cloud Act, permettent aux autorités américaines d'accéder aux données stockées par ces entreprises, quel que soit l'emplacement physique des données. Cela entre directement en conflit avec les principes du RGPD.

◾️Renseignez vous sur les lois en vigueur

Dans le cadre du développement d'une application sur le cycle menstruel, Martha Dörfler souligne l'importance de comprendre le contenu que vous créez sur vous-même et, plus important encore, la manière dont ce contenu peut être et sera utilisé par les entreprises et les institutions publiques. Elle estime donc que la clé pour préserver la confidentialité et la sécurité de vos données de santé est, avant tout, de connaître les lois en vigueur dans votre région.

Cela dépend beaucoup du modèle de menace de la personne. Par exemple, si vous résidez dans un pays où l'avortement est très illégal, vous devez envisager différentes alternatives pour la collecte et le stockage des données vous concernant.

🍃On comprend qu'il est devenu très difficile de s'extraire de cette collecte où notre consentement est plus que jamais remis en cause, c'est bien qu'on cherche à nous rendre responsable, on en reparlera !!

— Modifié le 11 avr. 2024 à 12:09:25

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

11 avr. 2024 à 12:07:07 via site

image

⏩️Fitbit, c'est avec un compte Google obligatoire des 2025⏪️

Fitbit, c'est avec un compte Google obligatoire dès 2025 !!

Bien qu'ils soient fortement poussés à le faire, les utilisateurs sont encore toujours libres de n'utiliser que leur compte Fitbit. En revanche, à partir de 2025, les appareils connectés ne pourront plus fonctionner sans compte Google. Le calendrier précis de ce changement n'a pas encore été communiqué. Fitbit promet d'être "transparent" concernant le calendrier, preuve de la sensibilité du sujet. En effet, être obligé de créer un compte Google pour utiliser une montre connectée signifie d'accepter que Google mette la main sur vos données.

◾️Des données qui ne devraient pas être utilisées pour de la publicité ciblée

Sur ce point, la firme de Mountain View a pris des engagements. En particulier, elle s'est engagée à ne pas utiliser les données collectées par les appareils connectés pour alimenter Google Ads, sa régie publicitaire. Ce n'est qu'à cette condition que la Commission européenne a approuvé le mariage en décembre 2020.

En effet, en s'offrant Fitbit et son trésor de données, les concurrents allaient difficilement pour concurrencer Google créant ainsi "des barrières à l'entrée et à l'expansion (...) au détriment des annonceurs". Cet engagement court pour dix ans, renouvelable une fois si nécessaire. Un mandataire est chargé d'en vérifier l'application effective.

◾️Google qui ne fait pas ce qu'il dit, ce n'est pas la première fois non plus

Le mode incognito, c'est une amende à 5 milliards de dollars, les plaignants de la class action reprochaient à Google de continuer à tracer leurs activités en ligne en dépit de l’activation du mode Incognito, présenté comme étant plus protecteur des données personnelles des internautes.

Une véritable mine d’informations, potentiellement embarrassantes, précisent la plainte, qui permettraient à Google d’être toujours plus précis dans les données personnelles qu’il vend aux annonceurs pour du ciblage publicitaire pertinent.
Pour sa défense, Google expliquait toujours avoir été transparent concernant le fonctionnement du mode Incognito, en disant qu’il permettait toujours aux administrateurs des sites web visités de « mieux évaluer la performance de leur contenu, produits, marketing et plus.

🍃Avec des entreprises toujours plus transparentes en effet sur leur appétit à collecter nos données, il faudrait peut-être enfin en tenir compte, on en reparlera !!

— Modifié le 30 mai 2024 à 19:05:32

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

15 avr. 2024 à 11:34:58 via site

image

⏩️Le Congrès américain renouvelle le programme d'espionnage FISA⏪️

FISA, c'est reparti de plus belle avec l’espionnage de toutes nos conversations !!

Dans un contexte de méfiance croissante envers les pouvoirs de surveillance du gouvernement, la Chambre des Représentants a adopté une loi visant à renouveler un programme crucial de surveillance nationale. Après des mois de débats et de divisions au sein du parti républicain, la législation a finalement été approuvée avec 273 voix pour et 147 contre. Le programme en question est une partie de la Foreign Intelligence Surveillance Act (FISA), connue sous le nom de Section 702. Cette section permet au gouvernement des États-Unis de collecter, sans mandat, les communications de non-Américains situés à l’extérieur du pays pour recueillir des renseignements étrangers. La réautorisation est liée à une série de réformes destinées à apaiser les critiques qui se plaignaient de violations des libertés civiles des Américains.

◾️Mettre sur écoute les communications entre Américains et étrangers à l'étranger

La section 702 permet au gouvernement américain de mettre sur écoute les communications entre Américains et étrangers à l'étranger. Des centaines de millions d'appels, de textes et de courriels sont interceptés par les espions du gouvernement, chaque fois avec « l'assistance forcée » des fournisseurs de communications américains.

Si le gouvernement cible strictement les étrangers soupçonnés de détenir des « informations de renseignement étrangères », il écoute également les conversations d'un nombre incalculable d'Américains chaque année (le gouvernement affirme qu'il est impossible de déterminer combien d'Américains sont concernés par le programme). Le gouvernement affirme que les Américains ne sont pas eux-mêmes ciblés et que les écoutes sont donc légales. Néanmoins, leurs appels, textes et courriels peuvent être stockés par le gouvernement pendant des années, et les forces de l'ordre peuvent y accéder ultérieurement sans l'autorisation d'un juge.

Le projet de loi de la Chambre des représentants élargit aussi considérablement la définition statutaire des fournisseurs de services de communication, ce contre quoi les experts de la FISA, dont Marc Zwillinger - l'une des rares personnes à conseiller la Foreign Intelligence Surveillance Court (FISC) - ont publiquement mis en garde.

« Les anti-réformateurs ne refusent pas seulement des réformes de bon sens de la FISA, ils poussent à une expansion majeure de l'espionnage sans mandat des Américains », a déclaré le sénateur américain Ron Wyden. « Leur amendement obligerait votre câblodistributeur à devenir un espion du gouvernement et à participer à la surveillance des communications des Américains sans mandat ».

◾️Mettez fin à la FISA. C'est un outil anti démocratique se défend Donald Trump

Autorisé pour la première fois en 2008, cet outil d'espionnage a été renouvelé à plusieurs reprises depuis lors, car les autorités américaines le considèrent comme essentiel pour perturber les attaques terroristes, les cyberintrusions et l'espionnage étranger. Il a également produit des renseignements sur lesquels les États-Unis se sont appuyés pour mener des opérations spécifiques.

Les démocrates, comme le sénateur Ron Wyden de l'Oregon, qui défendent depuis longtemps les libertés civiles, s'alignent sur les partisans républicains de l'ancien président Donald Trump qui, dans un message publié mercredi sur Truth Social, a affirmé, à tort selon les médias, que la section 702 avait été utilisée pour espionner sa campagne présidentielle.

« Mettez fin à la FISA », a écrit Trump en lettres capitales. « Elle a été utilisée illégalement contre moi et beaucoup d'autres. Ils ont espionné ma campagne ». Un ancien conseiller de sa campagne présidentielle de 2016 a fait l'objet d'une surveillance en raison de liens potentiels avec la Russie, en vertu d'une autre section de la loi.

Le législateur s'inquiète notamment de l'utilisation par le FBI du vaste répertoire de renseignements pour rechercher des informations sur des Américains et d'autres personnes aux États-Unis. Bien que le programme de surveillance ne vise que des non-Américains dans d'autres pays, il recueille également les communications d'Américains lorsqu'ils sont en contact avec ces étrangers ciblés.

🍃Un programme sans partage, qui met le monde sur écoute, on en reparlera !!

— Modifié le 15 avr. 2024 à 19:55:27

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

15 avr. 2024 à 20:04:59 via site

image

⏩️Souveraineté dans le cloud : des géants industriels européens condamnent la dernière décision de l’agence cyber de l’UE⏪️

Les géants géants de l’industrie s’unissent pour garantir la souveraineté du cloud en Europe !!

L’EFISA, qui coordonne le travail sur le schéma européen de certification de cybersécurité (EUCS), a décidé de supprimer les références aux exigences relatives à la souveraineté dans son dernier projet de compromis sur l’EUCS, daté du 22 mars et reporté par Euractiv.

L’EUCS a été pensé pour devenir le système de certification cloud uniformisé de l’UE, qui aiderait gouvernements et entreprises de l’Union à déterminer les caractéristiques de cybersécurité d’un fournisseur de services cloud donné lorsqu’ils achètent ce type de service.
Les entreprises ont également souligné que le schéma européen de certification de cybersécurité sera en contradiction avec le règlement sur les données (Data Act).
Ce règlement interdit l’accès illégal des gouvernements étrangers aux données non personnelles, ont souligné les signataires.

Le groupe de travail spécialisé de l’EFISA (ECCG) doit se réunir lundi (15 avril) pour discuter du système de certification pour les fournisseurs de service cloud.

Parmi les signataires de la lettre figurent le fournisseur d’énergie EDF, Dassault Systèmes qui possède le fournisseur de services cloud Outscale, les entreprises technologiques Sopra Steria et Capgemini, ainsi que les entreprises de télécommunications Deutsche Telekom, Telecom Italia et Proximus.

🍃Une décision très lourde de conséquences sur nos données, une de plus après la vente de données
de santé à Microsoft
et à la FISA qui vient d'être renouvelée, on en reparlera !!

— Modifié le 15 avr. 2024 à 20:09:23

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

17 avr. 2024 à 18:54:26 via site

image

⏩️Le Comité européen de la protection des données dit non au Pay ou Okay de Meta⏪️

Le Comité européen de la protection des données dit non au Pay ou Okay de Meta, notre libre consentement ne peut être obtenu en échange d’un paiement, mais par un Okay merci !!

Le Comité européen de la protection des données dit non au Pay ou Okay de Meta semble avoir suivi la seule compréhension logique du terme "librement donné son consentement" lors de l'analyse du système "Pay or Okay" de Meta, qui a facturé aux utilisateurs plus de 250 € par an pour Instagram et Facebook s'ils n'ont pas "librement" consenti à l'utilisation de leurs données personnelles. Politico cite le CEPD comme disant "Dans la plupart des cas, les grandes plateformes en ligne ne pourront pas se conformer aux exigences de consentement valide si elles ne confrontent les utilisateurs qu'avec un choix binaire entre consentir au traitement des données personnelles à des fins publicitaires comportementales et payer des frais".

"Dans l'ensemble, Meta n'a plus d'options dans l'UE. Il doit désormais donner aux utilisateurs une véritable option oui / non pour une publicité personnalisée. Il peut toujours facturer des sites pour la portée, s'engager dans la publicité contextuelle et autres - mais le suivi des personnes pour les publicités nécessite un «oui» clair de la part des utilisateurs".

L'EDPB a également mentionné la possibilité d'introduire une troisième option au-delà de "Pay or Okay", qui a jusqu'à présent été largement ignorée par l'industrie. En fait, il existe de nombreuses façons de monétiser un site Web, telles que la publicité contextuelle, le placement de produit, le contenu payant ou les modèles de freemium où certains contenus ne sont disponibles que moyennant des frais. Alors que l'industrie essaie de limiter la discussion à deux options ("payer" ou "d'accord"), le CEPD a souligné que le RGPD ne limite pas d'autres modes de financement des produits, même s'ils peuvent être moins rentables.

image

◾️Un avis de non conformité pour Meta, un avis que l'on attend pour les cookies aussi

Les autorités néerlandaises, norvégiennes et hambourgeoises de protection des données (DPA) ont demandé un avis du CEPD sur cette approche, qui déterminera l'avenir du libre consentement en ligne. Les conséquences possibles de cette opinion vont bien au-delà de la collecte par Meta des données utilisateur: si «Pay or Okay» est légitimé, l'approche se répandra comme une traînée de poudre. Cela peut être vu en Allemagne, où 30% des 100 meilleurs sites Web utilisent déjà «Pay or Okay» pour augmenter les taux de consentement. Bien que la CJUE et les autorités aient jusqu'à présent été claires, par exemple. Les «boîtes pré-cochées» ou les boutons de rejet sur la deuxième couche d'une bannière sont illégaux, il semble que le simple fait de demander de l'argent ne soit pas considéré comme un problème clair. Si les APD ne prennent pas une position claire contre cela, les Européens peuvent rapidement perdre le «choix authentique ou libre» d'accepter ou de rejeter le traitement de leurs données personnelles, qui était une pierre angulaire du RGPD et a été maintes fois soutenu par le CJUE.

🍃On attend donc une décision claire du Comité européen de la protection des données, sur un refus qui doit être librement consenti ici aussi, on en reparlera !!

— Modifié le 17 avr. 2024 à 19:18:25

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

18 avr. 2024 à 11:07:42 via site

image

⏩️Les modèles Pay or Okay doivent un offrir un véritable choix⏪️

La décision du Comité européen de la protection des données est sans équivoque, notre consentement doit rester libre et les conséquences d’un refus ne doit être punitif !!

En ce qui concerne les modèles de «consentement ou de paiement» mis en œuvre par les grandes plateformes en ligne, l’EDPB estime que, dans la plupart des cas, il ne leur sera pas possible de se conformer aux exigences relatives au consentement valide, s’ils ne confrontent les utilisateurs qu’à un choix entre le consentement au traitement de données à caractère personnel à des fins de publicité comportementale et le paiement d’une redevance.

L’EDPB considère que le fait d’offrir uniquement une alternative payante aux services qui impliquent le traitement de données à caractère personnel à des fins de publicité comportementale ne devrait pas être la voie à suivre par défaut pour les responsables du traitement. Lors de l’élaboration de solutions de remplacement, les grandes plateformes en ligne devraient envisager de fournir aux particuliers une «alternative équivalente» qui n’entraîne pas le paiement d’une redevance. Si les responsables du traitement choisissent de facturer une redevance pour l’accès à la «alternative équivalente», ils devraient envisager de proposer une solution de remplacement supplémentaire. Cette alternative gratuite devrait être sans publicité comportementale, par exemple avec une forme de publicité impliquant le traitement de données à caractère personnel réduites ou nulles. Il s’agit d’un facteur particulièrement important dans l’évaluation du consentement valide en vertu du RGPD.

L’EDPB souligne que l’obtention du consentement ne dispense pas le responsable du traitement d’adhérer à tous les principes énoncés à l’article 5 du RGPD, tels que la limitation des finalités, la minimisation des données et l’équité. En outre, les grandes plateformes en ligne devraient également tenir compte du respect des principes de nécessité et de proportionnalité, et elles sont chargées de démontrer que leur traitement est généralement conforme au RGPD.

◾️Le consentement doit rester libre et les conséquences d’un refus ne doit être punitif

En ce qui concerne la nécessité d’un consentement libre, il convient de tenir compte des critères suivants: conditionnalité, préjudice, déséquilibre du pouvoir et granularité. Par exemple, l’EDPB souligne que les frais facturés ne peuvent pas amener les individus à se sentir obligés de consentir. Les responsables du traitement devraient évaluer, au cas par cas, à la fois si une redevance est appropriée et quel montant est approprié dans les circonstances. Les grandes plateformes en ligne devraient également examiner si la décision de ne pas consentir peut conduire l’individu à subir des conséquences négatives, telles que l’exclusion d’un service de premier plan, le manque d’accès aux réseaux professionnels ou le risque de perdre du contenu ou des connexions. L’EDPB note que des conséquences négatives sont susceptibles de se produire lorsque les grandes plateformes en ligne utilisent un modèle de «consentement ou de paiement» pour obtenir le consentement pour le traitement.

🍃Un modèle punitif indigne, c'est ce que nous font subi ces grandes plateformes et leurs partenaires, on en reparlera !!

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

22 avr. 2024 à 15:27:43 via site

image

⏩️FISA : C'est toutes nos données de santé qui seront espionnées⏪️

FISA, c'est toutes nos données de santé revendues à Microsoft qui vont être espionnées par le programme de surveillance américain, notre certification cloud (EUCS) possible aussi !!

La loi d’espionnage FISA, qui autorise le Renseignement américain à collecter les communications de non citoyens américains à l’étranger – ce qui comprend bien les Européens – a finalement été prolongé de deux ans.
Malheureusement, la question de la vie privée des Européens est totalement passée sous les radars. La loi FISA est pourtant très critiquée sur le Vieux Continent. Elle impose aux sociétés américaines comme Google, Amazon ou Microsoft, de répondre à la demande des agences de renseignement américaines, si ces dernières souhaitent accéder aux échanges téléphoniques, aux messages, aux courriels ou aux sauvegardes dans des Clouds des Européens.

Et finalement, c’est bien « la sécurité nationale » qui l’a emportée : la chambre haute américaine a voté le prolongement de la loi avec 60 voix, contre 34. Le texte est désormais sur le bureau du président Joe Biden. Et les services secrets américains devraient pouvoir continuer à accéder à nos messageries, jusqu’en 2026.

◾️2 ans où nos données de santé seront passées au peigne fin par le programme de surveillance américain, avec les conséquences désastreuses que l'on peut imaginer

La CNIL a toujours martelé, que Microsoft, en tant que société américaine, est bien soumise aux lois extraterritoriales des États-Unis – dont le Cloud Act et la loi FISA, qui vient d’être prolongée jusqu’en avril 2024 et qu’importe que les centres de données de Microsoft Azure soient situés en Europe, les données de santé des Français vont être accessibles aux services de renseignements américains, sans que les principaux intéressés n’en soient jamais informés.
La CNIL a toujours regretté cette décision qui sabote d’abord le secret médical et qui brise la confiance entre le patient et son médecin.

◾️Une extension qui pourrait supprimer les références aux exigences relatives à la souveraineté européenne son dernier projet de compromis sur l’EUCS

L’EUCS, le futur référentiel de cybersécurité du cloud sera-t-il encore gage de « souveraineté » numérique européenne ?
Dix-huit sociétés, dont Airbus, OVHCloud, Orange, Capgemini et Dassault Systèmes, ont ainsi publié le 10 avril dernier une lettre « exhortant les États membres à rejeter toute proposition dépourvue de critères de souveraineté ». Un ton suivi par le Cigref, l’association qui regroupe les grandes entreprises européennes, qui, dans une lettre adressée à la Commission européenne 24 heures plus tard, dénonçait le « déclin d’une ambition ». La pression a été intense, jusqu’au dernier moment. Selon La Lettre A, des représentants de Cleyrop et Clever Cloud ont été reçus en début de semaine à l’Élysée pour défendre le critère de souveraineté, sur les données les plus sensibles.

Il faudra donc attendre le mois de juin pour que les experts des 27 pays de l’Union européenne tranchent la question, car ne l’oublions pas, c'est l’Agence de l’Union européenne pour la cybersécurité (Efisa), qui coordonne le travail sur le schéma européen de certification de cybersécurité (EUCS) qui ne veut plus en entendre parler et on se demande bien pourquoi !

◾️Du lobbying et encore du lobbying

En arrière-plan, les géants du cloud américains ont mené bataille pour ne plus être écartés de l’EUCS. L’exigence de l’immunité juridique exclut de fait AWS, Google Cloud et Azure, qui détiennent à eux trois plus des trois quarts du marché européen – une exclusion du marché des données sensibles qui n’est évidemment pas vue d’un très bon œil par ces derniers.

L’industrie américaine du cloud aurait ainsi écrit à l’administration américaine que « l’EUCS faisait peser une menace potentielle pour les intérêts de sécurité nationale des États-Unis. (…) Elle restreindrait le champ d’activité des agences de renseignement américaines », rapporte Henri d’Agrain, le délégué général du Cigref, dans un post sur LinkedIn.

🍃Un programme FISA qui signe d’abord la mort de notre souveraineté pour les intérêts des clouders américains, on en reparlera !!

— Modifié le 22 avr. 2024 à 15:54:27

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

26 avr. 2024 à 12:47:38 via site

image

⏩️L’illusion de la confidentialité, c'est ce qui se vend le mieux sur le web ⏪️

194 238 tentatives de traçage par mois, c'est ce chiffre alarmant que Murena souhaite combattre en redessinant le chemin de notre confidentialité sur le web !!

“Dans un monde où les empreintes numériques sont surveillées sans relâche, ma récente découverte a été à la fois choquante et instructive. En l’espace d’un mois, mon téléphone a bloqué 194 238 tentatives de traçage” , a découvert Alexis Noetinger, le co-fondateur de Murena.

Ce chiffre stupéfiant n’est pas seulement une statistique, c’est un signal d’alarme sur l’omniprésence du suivi des données dans nos interactions numériques quotidiennes.

◾️L’illusion de la confidentialité protégée dans un monde connecté

Utilisant un Murena Fairphone 4, équipé de l’outil Advanced Privacy intégré dans /e/OS, j’ai pris des mesures pour protéger mes données. En rejetant les cookies, en refusant les informations de mesure et en n’installant que les applications essentielles, on pourrait penser qu’il y a un voile d’invisibilité contre les traqueurs. Pourtant, c’est tout le contraire qui se produit. Malgré tous nos efforts, nous sommes toujours suivis, souvent sans notre consentement.

◾️Les cookies fonctionnels : Les traceurs cachés

Beaucoup d’entre nous connaissent la demande d’acceptation de cookies fonctionnels, sous prétexte d’améliorer l’expérience utilisateur. Cependant, ces traceurs sont loin d’être inoffensifs. Ils collectent une pléthore de données : du type de votre appareil à vos habitudes de navigation, le tout sous la bannière de « services fonctionnels ». Ces données, bien qu’apparemment anonymes, peuvent être rassemblées pour créer un profil détaillé de votre personnalité numérique.

◾️RGPD: Un pas en avant, mais insuffisant

L’avènement du RGPD a marqué une étape importante dans la protection des données privées, mais ce n’est pas la panacée que beaucoup espéraient. Il a modifié le paysage, rendant la collecte de données plus transparente mais légale. L’obligation d’accepter les cookies fonctionnels comme une forme de consentement minimal témoigne de ce défi permanent.

◾️Le rôle d’Advanced Privacy

Advanced Privacy de Murena est notre réponse à cette pratique invasive. Il ne s’agit pas seulement d’un outil, mais d’une déclaration contre la normalisation du traçage des données personnelles. En exploitant les requêtes DNS pour bloquer les traqueurs, Advanced Privacy offre une liberté numérique que nous méritons tous.

Ce voyage dans le désert numérique nous a ouvert les yeux. Il est clair que la bataille pour la protection de la vie privée est en cours, mais qu’elle n’est pas impossible à gagner. Grâce à des outils comme Advanced Privacy, nous pouvons reprendre le contrôle de nos vies numériques. Êtes-vous prêt à rejoindre ce mouvement vers un monde numérique plus privé ? Passez à /e/OS pour pouvoir profiter de l’outil supplémentaire de blocage des traceurs Advanced Privacy, ainsi que de tous les avantages de notre système d’exploitation déGooglisé !

🍃On est prêt sur Murena à tracer son propre chemin dans ce numérique qui n'en finit plus de nous traquer, profitons-en !!

— Modifié le 26 avr. 2024 à 15:17:05

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

29 avr. 2024 à 09:47:26 via site

image

⏩️ChatGPT ment et OpenAI refuse de le corriger ⏪️

ChatGPT ment et OpenAI refuse de le corriger, quand 79% des jeunes lui font confiance pour rédiger leur devoir, trouver leur chemin, leurs chaussettes, une orientation, rédiger un CV !!

Dans l'UE, le RGPD exige que les informations sur les individus soient exactes et qu'elles aient pleinement accès aux informations stockées, ainsi qu'aux informations sur la source. Étonnamment, cependant, OpenAI admet ouvertement qu'il n'est pas en mesure de corriger des informations incorrectes sur ChatGPT. De plus, la société ne peut pas dire d'où viennent les données ni quelles données ChatGPT stocke sur les personnes individuelles. L'entreprise est bien consciente de ce problème, mais ne semble pas s'en soucier. Au lieu de cela, OpenAI soutient simplement que «la précision factuelle des grands modèles linguistiques reste un domaine de recherche active ». Par conséquent, noyb a déposé aujourd'hui une plainte contre OpenAI auprès de la DPA autrichienne .

◾️L’IA est un outil fallacieux, elle invente les réponses

ChatGPT continue d'halluciner et même OpenAI ne peut pas l'arrêter. Le lancement de ChatGPT en novembre 2022 a déclenché un battage médiatique sans précédent contre l'IA. Les gens ont commencé à utiliser le chatbot à toutes sortes de fins, y compris les tâches de recherche. Le problème est que, selon OpenAI lui-même, l'application ne génère que des «réponses aux demandes des utilisateurs en prédisant les prochains mots les plus probables qui pourraient apparaître en réponse à chaque invite». En d'autres termes: bien que l'entreprise dispose de données de formation détaillées, il n'y a actuellement aucun moyen de garantir que ChatGPT affiche réellement les informations correctes des utilisateurs. Au contraire, les outils d'IA génératifs sont connus pour «halluciner» régulièrement, ce qui signifie qu'ils inventent simplement des réponses.

◾️Des informations inexactes tolérables à 79% pour les élèves, inacceptable pour les individus

D'accord pour les devoirs, mais pas pour les données sur les individus. Bien que des informations inexactes puissent être tolérables lorsqu'un élève utilise ChatGPT pour l'aider dans ses devoirs, elles sont inacceptables lorsqu'il s'agit d'informations sur des individus. Depuis 1995, le droit de l'UE exige que les données personnelles soient exactes. Actuellement, cela est inscrit à l'article 5 du RGPD. Les individus ont également le droit de rectifier en vertu de l'article 16 du RGPD si les données sont inexactes et peuvent demander que les fausses informations soient supprimées. En outre, en vertu du «droit d'accès» de l'article 15, les entreprises doivent être en mesure de montrer quelles données elles détiennent sur les particuliers et quelles sont les sources.

◾️Une hallucination aux mêmes effets que la diffamation

La création de fausses informations est assez problématique en soi. Mais quand il s'agit de fausses informations sur des individus, il peut y avoir de graves conséquences. Il est clair que les entreprises ne sont actuellement pas en mesure de faire en sorte que les chatbots comme ChatGPT soient conformes au droit de l'UE, lors du traitement des données sur les individus. Si un système ne peut pas produire de résultats précis et transparents, il ne peut pas être utilisé pour générer des données sur des individus. La technologie doit suivre les exigences légales, et non l'inverse.

🍃Une IA fallacieuse ne fait surtout plus rire personne, on en reparlera !!

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

30 avr. 2024 à 11:51:37 via site

image

⏩️OpenAI joue les ventriloques ⏪️

OpenAI joue les ventriloques, s’insurge Nyob et si ce n'est pas si grave en ce qui concerne l’aide aux devoirs des élèves qui ne prennent pas le temps d’apprendre leur cours, c'est diffamatoire en ce qui concerne les personnes réelles, il demande une coopération européenne !!

Si des informations inexactes peuvent être tolérées lorsqu’un élève utilise ChatGPT pour l’aider à faire ses devoirs, elles sont inacceptables lorsqu’il s’agit d’informations concernant des personnes », fustige Noyb. Dénonçant une violation du RGPD, l’association de défense de la vie privée annonce le dépôt d’une plainte contre OpenAI auprès de l’autorité de la protection des données autrichienne.

◾️OpenAI joue les ventriloques et pas le contraire

Noyb assure qu’OpenAI a enfreint chacune de ces règles en refusant la demande de Schrems de rectifier les informations erronées, comme une simple date de naissance. La start-up a expliqué qu’il était techniquement impossible de la corriger. Pour cette raison, l’association saisit l’agence autrichienne et l’invite même à infliger une amende à OpenAI, « pour garantir la conformité future ».

« Il est clair que les entreprises sont actuellement incapables de faire en sorte que les chatbots tels que ChatGPT soient conformes à la législation de l’UE lorsqu’ils traitent des données concernant des personnes. Si un système ne peut pas produire des résultats précis et transparents, il ne peut pas être utilisé pour générer des données sur des personnes. La technologie doit suivre les exigences légales, et non l’inverse », argumente Maartje de Graaf, avocate spécialisée dans la protection des données chez Noyb

◾️Une possible coopération européenne

Plus tôt cette année, c’était le régulateur italien qui épinglait OpenAI pour violation du RGPD. L’agence de protection des données autrichienne, elle, a confirmé avoir reçu la plainte. Elle va évaluer la nécessité de la transmettre à une autre autorité nationale ; Noyb a indiqué qu’une coopération à l’échelle européenne serait plus efficace pour traiter cette affaire.

🍃Avec des hallucinations qui ont tout du subterfuge, on attend surtout de l’Europe qu'elle siffle la fin de la récréation, on en reparlera !!

— Modifié le 30 avr. 2024 à 12:06:45

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

14 mai 2024 à 11:24:11 via site

image

⏩️Alerte Pub Extrême ⏪️

Le gouvernement fait de la pub pour son Pass JO avec une notification très effrayante qui décrédibilise son système FR-Alert !!

Si vous étiez en région parisienne le soir du 13 mai à 20h, vous avez peut-être pris peur en recevant une alerte FR-Alerte « Alerte Extreme » sur votre smartphone. Ce nouveau dispositif a été mis en place en 2023 et doit permettre aux autorités d’alerter immédiatement les citoyens en cas de problèmes très graves : inondation, cyclone, acte terroriste, pandémie, ou encore incident industriel.

Le gouvernement a cependant choisi de l’utiliser à mauvais escient : pour faire la promotion du dispositif Pass Jeux JO 2024. Une communication absolument pas urgente de la part du gouvernement qui passe par un système dédié aux problèmes les plus sérieux possibles, dans une ville qui a déjà été touchée par le terrorisme dans l’histoire récente.

◾️Une alerte publicité extrême qui ne fait rire personne

Devant cette fausse peur provoquée par le gouvernement, plusieurs internautes se sont posé la question de la désactivation des notifications. C’est bel et bien une option pour l’utilisateur dans ses paramètres.

Le système FR-Alert est un bon système avec des notifications fortes qui peuvent sauver de nombreuses vies. Le problème est dans l’utilisation dévoyée du système. Si le gouvernement continue d’utiliser FR-Alert pour de la communication politique, il poussera les utilisateurs à désactiver ces précieuses notifications. On recommande donc surtout de relire la fable « l’enfant qui criait au loup ».

🍃Qui s'y frotte s’y pique, on est prévenu, on en reparlera !!

— Modifié le 14 mai 2024 à 13:10:57

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

14 mai 2024 à 13:25:21 via site

image

⏩️La vie privée ne devrait pas être un luxe⏪️

On s'échappe chez Murena de la surveillance numérique et des alertes extrêmes avec un OS dégooglisé qui passe à 199€ !!

Murena et son système d’exploitation /e/OS adoptent une approche centrée sur la protection de la vie privée pour réduire le risque d’espionnage par les applications mobiles. Le cœur de cette approche est un système d’exploitation basé sur Android, mais conçu pour minimiser la collecte et le partage de données personnelles.

/e/OS s’éloigne des services et applications Google standard qui sont souvent intégrés dans Android. En remplaçant ces services par des alternatives axées sur la confidentialité, /e/OS réduit la quantité de données collectées par défaut par les applications et les services. De plus, le système d’exploitation est doté de fonctionnalités qui permettent un meilleur contrôle sur les autorisations des applications. Cela signifie que vous avez la capacité de limiter l’accès des applications à certaines données ou fonctionnalités de votre téléphone, comme la localisation, les contacts et l’appareil photo.

◾️Un SE dégooglisé avec un outil pour défendre sa confidentialité

Advanced Privacy, ou confidentialité avancée, est un outil spécifique que nous avons développé dans /e/OS, système d’exploitation mobile open source, déGooglisé, pour limiter l’exposition de vos données une fois que vous avez installé des applications tierces. Il offre à ses utilisateurs un contrôle plus précis sur les autorisations accordées aux applications, permettant de restreindre l’accès aux données personnelles et aux fonctionnalités du téléphone.

Les applications utilisent des traceurs pour enregistrer votre activité, même si vous n’utilisez pas l’application.
L’application recueille également votre adresse IP, ce qui lui permet de relier votre activité Internet à un appareil spécifique et à une personne, et enfin, elle tente de déterminer votre emplacement exact.
Advanced Privacy vous permet de gérer les traqueurs intégrés aux applications, l’adresse IP et la localisation. Il est disponible sous forme de widget et dans les paramètres du système d’exploitation. Vous pouvez continuer à utiliser vos applications tout en réduisant la collecte inutile de données sur vous.

◾️Parce que sa confidentialité ne devrait pas être un luxe, elle est à 199€ sur le Murena One

Propulsé par le système d'exploitation révolutionnaire / e / OS, le Murena One est notre smartphone 4G LTE qui vous protège contre la collecte constante de données de Google. Profitez des avantages d'un appareil intelligent sans surveillance, vous remettant en contrôle vos données personnelles.
Bénéficiant d'un bel écran de 6,5 pouces avec une conception de caméra à trou de punch pour la caméra selfie, l'appareil est équipé d'une caméra frontale de 25 mégapixels pour de superbes selfies et de trois caméras arrière avec des capteurs de 48, 8 et 5 mégapixels pour des prises de vue à couper le souffle . Propulsé par un processeur octa-core et 4 Go de RAM, il garantit des performances fluides, améliorées par une expérience de visualisation qui vise à être parmi les meilleurs du marché.

Avec 128 Go de stockage intégré et la possibilité de se développer à l'aide d'une carte SD, le Murena One offre un espace abondant pour toutes vos photos et fichiers. La batterie de 4500 mAh garantit une puissance suffisante pour durer des journées chargées sans avoir besoin de charge. De plus, la fonctionnalité Dual SIM permet aux utilisateurs de profiter de deux lignes téléphoniques avec un seul appareil, offrant à la fois commodité et flexibilité.

Le Murena One est votre passerelle abordable pour protéger vos données personnelles, tout en fournissant une puissance suffisante et une connectivité 4G LTE pour une utilisation quotidienne.

🍃De la vie privée et de la confidentialité à s’offrir, profitons-en !!

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

16 mai 2024 à 12:21:51 via site

image

⏩️Cartes IGN, faire la différence face aux GAFAM ⏪️

Cartes IGN lance l’offensive avec une carte pour la différence face aux GAFAM !!

L’Institut national de l’information géographique et forestière (IGN) est bien connu des passionnés de randonnée, pour ses cartes détaillées de l’Hexagone. Face à l’omniprésence de l’américaine Google Maps, il a lancé ce mercredi la nouvelle version de son application, Cartes IGN.

Son application de cartographie existe depuis 2015. À première vue, elle semble tout ce qu’il y a de plus classique : une carte s’affiche sur l’écran du téléphone, utilise la localisation de l’appareil, avec la possibilité de chercher une adresse.
Cependant, en plus de ces fonctionnalités de base, la nouvelle version propose un nombre impressionnant d’informations supplémentaires. Il est possible d’afficher des données par thématique : agriculture, forêt, administratif, foncier, risques naturels, tourisme et loisirs ou bien espaces protégés.
Il devient alors possible d’accéder, entre autres, aux parcelles cadastrales, de voir les limites des forêts publiques et des parcelles viticoles AOC.

◾️Une application où l'on apprécie ce qui fonctionne, une application où l'on apprécie encore ce qui ne fonctionne pas

À l’image d’un Google Maps, il est possible de changer de vue : plan IGN, vue aérienne et même carte topographique. L’application permet également de comparer des vues aériennes d’un territoire à différentes époques, afin de mesurer son évolution dans le temps.
Au total, une vingtaine de niveaux cartographiques sont proposés. L’utilisateur peut aussi cliquer sur des bâtiments pour voir apparaître plusieurs informations comme l’année de construction. Le regroupement de toutes ces données dans une application, fluide et simple d’utilisation, répond à un objectif de découverte ludique du territoire. Mais pas que.
La plateforme offre aussi la possibilité de créer des itinéraires pédestres. Elle compile notamment les données d’Openstreetmap, plateforme collaborative. Reste que derrière elle se trouvent des enjeux de souveraineté.

Pour l’IGN, l’immense quantité de données disponibles et toutes les fonctionnalités « font la différence » face aux GAFAM. « Elle respecte les principes d’équité et d’accès universel à l’information géographique, défend l’établissement public. Son caractère ouvert et sans tracker sont autant de garanties pour la confidentialité et le respect de la vie privée des utilisateurs », a martelé l’Institut.

🍃 Des garanties pour la confidentialité et le respect de la vie privée, la meilleure façon de faire la différence, on en reparlera !!

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

29 mai 2024 à 11:19:02 via site

image

⏩️Meta veut utiliser vos données Instagram et Facebook pour alimenter son IA, voici comment refuser⏪️

On se défend contre la délation de l’IA avec ses données à ne pas laisser traîner !!

Dans ce bloc de texte, qui s’apparente à une réactualisation des conditions générales d’utilisation que nous sommes habitués à accepter sans trop y prêter attention, on trouve cependant une ligne qui peut faire froid dans le dos. C’est écrit noir sur blanc : vos données personnelles vont être utilisées pour alimenter l’intelligence artificielle de Meta.

En clair, cette notification apparaît dans le cadre de l’instauration du Digital Markets Act (DMA) en mars dernier. En vertu de ces nouvelles règlementations européennes, Meta n’a plus la possibilité de mettre toutes les données qu’il récolte sur ses utilisateurs et utilisatrices sur ses différentes applis dans le même panier. Du moins pas sans vous en demander l’autorisation, d’où la présence de ce nouvel écran vous demandant, poliment, d’accepter d’alimenter son IA.

Dans le détail, ce sont trois types de données qui intéressent Meta, et pas les moins signifiantes : vos publications, les photos ainsi que leurs légendes, et l’historique de vos conversations avec les IA de Meta jusqu’alors. Les commentaires aux publications et les messages privés ne sont pas concernés. Par contre, si vous apparaissez sur une photo qui ne vous appartient pas, ou que vous êtes mentionné dans une publication d’un tiers, Meta se réserve le droit d’utiliser ces données pour nourrir son intelligence artificielle.

🍃Il se réserve le droit avec un droit d’opposition à faire valoir, on en est là, on en reparlera !!

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

31 mai 2024 à 11:12:48 via site

image

Journée de recherche sur la vie privée 2024

On recherche sa vie privée avec la CNIL, le 4 juin et des moyens à imaginer pour se défendre de cette IA toujours plus délétère !!

Cette troisième édition de la « Journée de recherche sur la vie privée » sera l'occasion de renforcer les liens entre le monde académique et les régulateurs. Donnant lieu à des échanges inédits entre des experts juridiques, des informaticiens, des designers, des économistes ou encore des chercheurs en sciences sociales, cette journée s'adresse à un large public familiarisé avec la protection de la vie privée et des données.

Pensé comme un espace d’échange et de rencontre, la « Journée de recherche sur la vie privée » est aussi une opportunité de construire des partenariats durables entre le monde de la recherche, la CNIL et d'autres organismes publics.

🍃Une journée de plus à comptabiliser ce qu'on a perdu, on en reparlera !!

— Modifié le 31 mai 2024 à 11:32:00

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

4 juin 2024 à 13:14:00 via site

image

⏩️ Signal menace de quitter l’Europe⏪️

On reparle de Chat Control qui écraserait la concurrence avec Signal qui menace de quitter l’Europe !!

Signal rejette à nouveau projet de compromis de l’actuelle présidence belge du Conseil, qui stipule que seules les images, vidéos et URL, mais pas les pistes audio ou les textes, doivent être filtrées. Si ce projet est accepté et appliqué à Signal, la messagerie serait contrainte de se retirer du marché européen, selon Meredith Whittaker.

Signal n’est pas le seul à critiquer ce nouveau projet de compromis. Le député du Parti Pirate Patrick Breyer a également déclaré que l’analyse côté client « détruirait le chiffrement sécurisé ».

◾️Un avantage anticoncurrentiel sur le dos d’un scan de toutes nos conversations

Dans leur lettre, les signataires soulignent aussi qu’en pratique, la mise en place d’une telle procédure constituerait une nouvelle charge administrative importante — une charge telle qu’elle pourrait « submerger (…) nos entreprises », craignent-ils. Au vu des volumes de communication en jeu, « même un taux d’erreur insignifiant des technologies appliquées à la recherche de “contenu abusif” entraînerait l’examen manuel de millions de faux positifs chaque jour ». En arrière-plan, ces PME du numérique rappellent qu’elles n’ont tout simplement pas les mêmes moyens que des géants comme Meta (WhatsApp) ou Apple (iMessage) qui pourraient sans difficulté embaucher des équipes dédiées à ce scan obligatoire.

🍃Quand ça ne passe pas la porte, faut que ça passe par la fenêtre, on en reparlera !!

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

5 juin 2024 à 19:04:35 via site

image

⏩️Microsoft viole la vie privée des enfants⏪️

Microsoft et ses 772 partenaires commerciaux violent la vie privée des enfants, de tous nos enfants dans Microsoft 365 Education et que font-ils avec leurs données de santé !!

Les fournisseurs de logiciels comme Microsoft ont un énorme pouvoir de marché, leur permettant de dicter les termes et conditions des contrats avec quiconque souhaite utiliser leurs produits. Dans le même temps, ces fournisseurs de logiciels tentent d'esquiver la responsabilité en insistant sur le fait que presque tout cela appartient aux autorités locales ou aux écoles. En réalité, ni le pouvoir d'influencer la façon dont Microsoft traite réellement les données utilisateur. Au lieu de cela, ils sont confrontés à une situation à prendre ou à laisser où tout le pouvoir de décision et les bénéfices incombent à Microsoft, tandis que les écoles devraient supporter la plupart des risques. Les écoles n'ont aucun moyen réaliste de négocier ou de changer les termes.

◾️Microsoft et ses 772 partenaires commerciaux à l’affût de toutes nos conversations

Essayer de savoir exactement quelles politiques ou documents de confidentialité s'appliquent à l'utilisation de Microsoft 365 Education est une expédition en soi. Il y a un grave manque de transparence, obligeant les utilisateurs et les écoles à naviguer dans un labyrinthe de politiques, documents, conditions et contrats de confidentialité qui semblent tous s'appliquer. Les informations fournies dans ces documents sont toujours légèrement différentes, mais toujours vagues sur ce qui arrive réellement aux données des enfants lorsqu'ils utilisent les services d'éducation Microsoft 365.

2Maartje de Graaf, avocat en protection des données à noyb : «Microsoft fournit des informations si vagues que même un avocat qualifié ne peut pas comprendre pleinement comment l'entreprise traite les données personnelles dans Microsoft 365 Education. Il est presque impossible pour les enfants ou leurs parents de découvrir l’étendue de la collecte de données de Microsoft."

◾️Microsoft et 772 partenaires spécialisés dans la publicité ciblées qui classent les consommateurs en fonction de plus de 650 000 traits de personnalité et situations personnelles impossible à supprimer

Bien que le plaignant n'ait pas consenti au suivi, Microsoft 365 Education a toujours installé des cookies qui, selon la propre documentation de Microsoft, analysent le comportement des utilisateurs, collectent des données de navigateur et sont utilisés pour la publicité. Un tel suivi, qui est couramment utilisé pour le profilage très invasif, est apparemment effectué sans que l’école du plaignant ne le sache. Microsoft 365 Education étant largement utilisé, l'entreprise est susceptible de suivre tous les mineurs à l'aide de leurs produits éducatifs. L'entreprise n'a aucune base juridique valable pour ce traitement.

Felix Mikolasch, avocat en protection des données à noyb : «Notre analyse des flux de données est très préoccupante. Microsoft 365 Education semble suivre les utilisateurs quel que soit leur âge. Cette pratique est susceptible d'affecter des centaines de milliers d'élèves et d'étudiants dans l'UE et l'EEE. Les autorités devraient enfin intensifier et faire respecter efficacement les droits des mineurs."

◾️D'innombrables enfants sont touchés quand Microsoft gère leur données de santé contre l’avis de la CNIL

Noyb demande à l'autorité autrichienne de protection des données (DSB) d'enquêter et d'analyser factuellement les données traitées par Microsoft 365 Education. Ni la documentation de confidentialité de Microsoft, les demandes d'accès, ni noyb Les propres recherches pourraient clarifier pleinement cela, ce qui viole les dispositions de transparence du RGPD. En outre, l'entreprise n'a pas respecté le droit d'accès. Les termes et conditions et la documentation de confidentialité de Microsoft 365 Education étant uniformes pour l'UE / EEE, tous les enfants vivant dans ces pays sont exposés aux mêmes violations de leurs droits au RGPD. Par conséquent, noyb suggère également que l'autorité devrait infliger une amende à Microsoft.

🍃Une politique western et des abus de position dominante ici aussi, on en reparlera !!

— Modifié le 5 juin 2024 à 19:12:12

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

6 juin 2024 à 14:13:59 via site

image

⏩️Technologie AI dans le viseur de l’Europe ⏪️

On fait front commun avec Nyob contre la Technologie AI de Meta qui compte bien divulguer toutes les données privées de ses utilisateurs, photos et messages compris !!

Contrairement à la situation déjà problématique des entreprises utilisant certaines données (publiques) pour former un système d'IA spécifique (par ex. a chatbot), la nouvelle politique de confidentialité de Meta dit essentiellement que la société veut prendre toutes les données des utilisateurs publics et non publics qu'elle a collectées depuis 2007 et les utiliser pour tout type indéfini de "technologie de l'intelligence artificielle" actuelle et future. Cela inclut les nombreux utilisateurs de comptes Facebook "dormants" qui n'interagissent plus à peine - mais qui contiennent toujours d'énormes quantités de données personnelles. De plus, Meta dit qu'elle peut collecter des informations supplémentaires auprès de tout "tiers" ou gratter des données à partir de sources en ligne. La seule exception semble être les conversations entre les individus - mais même les conversations avec une entreprise sont un jeu équitable. Les utilisateurs ne reçoivent aucune information sur les objectifs de la "technologie AI" - ce qui est contraire aux exigences du RGPD. La politique de confidentialité de Meta permettrait théoriquement n'importe quelle fin. Ce changement est particulièrement préoccupant car il concerne les données personnelles d'environ 4 milliards d'utilisateurs Meta, qui seront utilisées pour la technologie expérimentale essentiellement sans limite. Au moins les utilisateurs de l'UE / EEE devraient (en théorie) être protégés contre de tels abus par le RGPD

◾️Meta compte tout divulguer sur ses utilisateurs

Outre l'absence de toute base juridique pour aspirer plus d'une décennie de données utilisateur, Meta a précédemment déclaré qu'elle était techniquement incapable de distinguer les données des utilisateurs de l'UE / EEE et d'autres pays où les gens ne jouissent pas Protection du RGPD. Meta a également déclaré qu'elle ne pouvait pas faire la distinction entre les données sensibles au titre de l'article 9 du RGPD, telles que l'origine ethnique, les opinions politiques, les croyances religieuses (pour lesquelles l'argument de "l'intérêt légitime" n'est pas disponible en vertu de la loi), et d'autres données pour lesquelles une "légitime" pourrait théoriquement être revendiqué. Avec l'introduction de sa technologie d'IA, Meta semble avoir violé un certain nombre d'autres dispositions du RGPD, notamment les principes du RGPD, les règles de transparence et les règles opérationnelles.

◾️Meta compte bien trahir et humilier tous ses utilisateurs

Les intérêts de Meta l'emportent-ils sur les droits des utilisateurs?? Normalement, le traitement des données personnelles dans l'Union européenne est illégal par défaut. Par conséquent, Meta doit s'appuyer sur l'une des six bases juridiques de l'article 6, paragraphe 1, du RGPD afin de traiter les données personnelles. Bien que le choix logique soit le consentement opt-in, Meta affirme à nouveau qu'il a un "intérêt légitime" qui l'emporte sur les droits fondamentaux des utilisateurs. Meta a déjà fait valoir cela dans le contexte de l'utilisation de toutes les données personnelles à des fins publicitaires - et a été rejeté par la Cour de justice (voir C-252/21). Meta utilise désormais la même base juridique pour justifier une utilisation encore plus large et plus agressive des données personnelles des personnes.

Max Schrems : "La Cour de justice des Communautés européennes a déjà clairement indiqué que Meta n'avait aucun" intérêt légitime "pour outrepasser le droit des utilisateurs à la protection des données en matière de publicité. Pourtant, la société essaie d'utiliser les mêmes arguments pour la formation d'une «technologie AI» indéfinie. Il semble que Meta ignore une fois de plus ouvertement les jugements de la CJUE. "

🍃Une procédure d’urgence à suivre, on en reparlera !!

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

7 juin 2024 à 17:34:42 via site

image

⏩️/ e / OS est la meilleure version d'Android ⏪️

On s’échappe du capitalisme de la surveillance avec Murena et des outils pour préserver sa confidentialité !!

La vraie différence entre / e / OS et d'autres versions d'Android est la conception de la confidentialité d'abord. Le cœur des fonctionnalités de confidentialité réside dans ce que / e / OS appelle l'application et le widget de confidentialité avancés. Ici, vous pouvez bloquer les trackers dans l'application, et il existe d'autres fonctionnalités telles que la dissimulation de votre adresse IP ou la géolocalisation lorsque vous en avez envie. L'IP et la parodie géo sont agréables pour les cas à usage limité, mais la principale fonctionnalité de confidentialité pour la plupart d'entre nous est la possibilité de bloquer les trackers dans les applications - et il s'avère qu'il y en a beaucoup.

◾️Une application de confidentialité qui bloque vraiment tout

La chose déprimante à propos de l'utilisation de / e / OS est de voir en détail combien d'applications transmettent constamment des données aux serveurs. Bien sûr, / e / OS bloque tout pour vous, donc vous ne transmettez rien, mais tout le monde l'est, et c'est triste.

Grâce à l'application de confidentialité avancée, je peux vous dire qu'au cours des 10 derniers jours, / e / OS a empêché 3 030 trackers d'applications de contacter les serveurs de suivi. Cela ne provient que de 15 applications. Bien qu'il y ait des applications que je ne suis pas surpris de voir sur cette liste, comme l'application Delta, que j'avais installée pour un voyage, il y en a d'autres que j'ai été déçu de voir là-bas, comme mes applications d'observation des oiseaux. L'application Audubon et l'application eBird de Cornell contiennent des trackers.

◾️Un store sans Google complet et agréable à utiliser

L'App Lounge utilise un design familier qui ressemble à Google Play mais ajoute quelques fonctionnalités. La première est que App Lounge fournit des informations de confidentialité sur chaque application, en les classant sur une échelle de 1 à 10, où 1 est horrible pour la confidentialité et 10 signifie généralement aucun tracker. L'App Lounge classe également les applications en fonction des autorisations dont elles ont besoin. Moins il y a d'autorisations (comme l'accès à vos photos ou géodonnées), plus la note est élevée. C'est une belle façon de fournir des informations complexes d'une manière que n'importe qui peut facilement analyser.

Dans une victoire pour la plus grande communauté Android-alt, / e / OS prétend travailler à rendre l'App Lounge disponible en tant qu'application qui peut être installée n'importe où.

🍃Un Android sans Google qui fonctionne bien , quand on ne remet pas sans cesse en cause nos droits et nos données pour les revendre, profitons-en !!

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

10 juin 2024 à 09:15:20 via site

image

⏩Pour un droit à la non-connexion administrative⏪

Loin des idées reçues et avec le recul de la lecture, l'illectronisme et l'exclusion numérique s'intensifient surtout chez les plus jeunes à l'heure du capitalisme sécuritaire et de l'administration toujours plus connectée !!

Plus d'une personne de 60 ans sur trois est en situation d'illectronisme mais il touche également un jeune sur cinq. Contrairement à l’e-exclusion qui définit le manque de moyens, l’illectronisme désigne le manque de savoir face aux outils numériques. Un fléau qui handicape un Français sur cinq.

Contraction d’illétrisme et d’électronique, l’illectronisme est un néologisme apparu au début des années 2000. Il se définit par une maîtrise insuffisante des compétences numériques de base, nécessaires à toute personne pour effectuer de manière autonome des actes de la vie courante.
Didier Barathon, spécialiste de l'économie numérique et auteur du livre L'exclusion numérique - Fracture numérique et illectronisme, estime qu’il touche aujourd’hui 10 à 15 millions de Français dont 3 à 5 millions cumulent fragilité sociale et numérique. Véritable cause de rupture avec la société, Cette fracture touche tous les âges, toutes les classes sociales, contrairement aux idées reçues.

Les personnes âgées mais aussi les jeunes

En 2023, notre société est devenue quasiment entièrement numérique. Par souci d’économies, de plus en plus de sociétés optent pour la dématérialisation. Les administrations et grandes entreprises publiques, en tête de liste. Passer au numérique nécessite une adresse email mais en créer une pour des non-initiés relève d’une véritable gageure. Pour ceux qui semblent être les plus touchés, on pense en premier aux personnes âgées mais Didier Barathon révèle que c’est un préjugé. L’illétrisme numérique touche un peu tout le monde, y compris des tranches d’âge plus étonnantes « Dans les permanences, on rencontre des jeunes qui ne savent pas aller sur Google pour trouver une offre d'emploi, qui ne savent pas récupérer leur mot de passe et en faire, qui trouvent inutile de télécharger et d'aller sur des espaces particuliers de la sécurité sociale, de la mutuelle ». Le spécialiste de l’économie électronique explique que l’on rencontre même ce phénomène chez des jeunes diplômés qui ne savent pas se servir des outils bureautiques de base lorsqu’ils arrivent en entreprise « Il y a un enseignement technique numérique à l'école, mais on évite souvent ces savoirs de base, comme les outils bureautiques, parce que l'on pense que tout le monde les connaît. En réalité non, tout le monde ne les connaît pas. Et quand vous cherchez du travail ensuite, c'est un sacré problème. Et quand vous êtes dans une entreprise, ou dans une administration ou dans une association, on considère que vous savez automatiquement le faire ».

Sauf qu'à l'ère de l'administration connectée, le numérique ne fait plus apprendre

Pour Thierry Desmurget, la numérisation à marche forcée imposée à l’école va à l’encontre de toutes les études qui démontrent qu’un apprentissage de qualité passe inévitablement par un professeur humain correctement formé (ce qui n’est hélas pas la logique dominante, rigueur budgétaire oblige). Qu’on se le dise : « Ce que nous faisons subir à nos enfants est inexcusable. Jamais sans doute, dans l’histoire de l’humanité, une telle expérience de décérébration n’avait été conduite à aussi grande échelle. »

Desmurget montre bien la coexistence de cette influence médiatique d’une part, de sa novlangue habile à ringardiser l’ancien monde pour célébrer le nouveau (celui du tout numérique et de ses digital natives), et d’autre part la réalité d’une littérature scientifique absolument contradictoire et alarmante. Ou comment les familles et les individus que nous sommes se retrouvent de fait piégés par cette logique, incapables de percevoir la gravité de la réalité :

« La consommation numérique récréative des jeunes générations n’est pas seulement « excessive » ou « exagérée » ; elle est extravagante et hors de contrôle. Parmi les principales victimes de cette orgie temporelle, on trouve toutes sortes d’activités essentielles au développement ; par exemple le sommeil, la lecture, les échanges intrafamiliaux, les devoirs, les pratiques sportives ou artistiques, etc ».

◾️Les enfants qui n'apprennent plus à lire, ils ne savent plus écrire non plus

Il est fréquent d’entendre les bonnes âmes progressistes railler ce genre d’observations
Alors, soyons clairs. Il ne s’agit pas ici de sacraliser l’orthographe ou de s’indigner pour une majuscule oubliée, un accord défaillant ou une étourderie lexicale. Ce genre d’erreur est commun et, sans le moindre doute, bénin. Le problème change cependant de dimension quand un célèbre rappeur tweete « je tenez a mescuser » ou quand un étudiant explique dans un message électronique que « la venir dirat si j’est raison ». Pas vraiment pire, cela étant, que ce que l’on peut découvrir dans des copies de master (soit bac + 4) : « On a 4 condition presque pareil, grouper par pères. Il faut les mélanger au hasar sinon on ai pas sur que ça marche » ; ou « Gale il a eu faut, sa vision d’effets était pas juste. »

Ces erreurs, commises il peut être important de le préciser par des individus ayant le français pour langue maternelle, ne témoignent pas d’un désordre orthographique superficiel mais « d’une incapacité logique grave. Elles sont le signe d’un dommage structurel majeur. C’est en effet le cœur syntaxique de la langue qui se trouve ici compromis. En d’autres termes, l’orthographe ainsi massacrée perd son statut de marotte esthétique pour devenir le symptôme annonciateur de troubles plus profonds.
En phase avec ces constats, nombre d’études montrent qu’il existe une forte corrélation entre compétences en orthographe et compréhension de texte.

Pour un droit à la non-connexion administrative

Chaque service public doit faire l’objet d’une garantie de maintien d’un accès partagé, en dehors du numérique. Sans cela, nous continuerons d’assister à l’exclusion pure et simple de territoires et de populations, toujours sans le moindre consensus démocratique.

Il faut rappeler une réalité simple : personne ne doit être forcé de passer par des services numériques pour les démarches relevant du service public. En poussant la logique de numérisation et d’économies de personnel, l’État impose de plus en plus une utilisation en ligne de ses services tout en rendant l’alternative « classique » de plus en plus complexe. Déclarer ses impôts, bénéficier d’une couverture santé, acheter un billet de train, envoyer un courrier, etc., est devenue un véritable chemin de croix pour toutes les personnes non équipées d’un smartphone ou d’un ordinateur.

🍃Une situation où il ne suffira pas de rétablir des cabines téléphoniques connectées dans la rue pour lutter contre l'exclusion si personne ne sait s'en servir, on en reparlera !!

— Modifié le 10 juin 2024 à 10:15:50

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

14 juin 2024 à 18:47:14 via site

image

⏩️ Jeu, set et match pour Nyob ⏪️

Nyob a le sourire, la Commission de protection des données vient d’obtenir de Meta qu'il n’utilisera pas les données privées des utilisateurs européens pour sa technologie IA non définie !!

Alors que le DPC a initialement approuvé l'introduction de la méta-IA dans l'UE / EEE, il semble que d'autres régulateurs aient repoussé ces derniers jours et conduit le DPC à faire demi-tour dans ses conseils à Meta. Le DPC a maintenant annoncé:

"Le DPC se félicite de la décision de Meta de suspendre ses plans de formation de son grand modèle linguistique à l'aide de contenu public partagé par des adultes sur Facebook et Instagram à travers l'UE / EEE. Cette décision faisait suite à un engagement intensif entre le DPC et le Meta. Le DPC, en coopération avec ses collègues autorités de protection des données de l'UE, continuera de collaborer avec Meta sur cette question."

◾️Nyob a su mettre la pression

L'explication évidente serait qu'après 11 plaintes déposées par noyb et d'autres organisations auprès de diverses autorités de protection des données en Europe, ainsi que les réactions publiques des autorités de protection des données de l'UE/EEE à la suite de ces plaintes, la pression sur le PDC s'est accrue.

Pour Max Schrems " nous félicitons de cette évolution, mais nous la suivrons de près. Jusqu'à présent, il n'y a pas eu de modification officielle de la politique de Meta en matière de protection de la vie privée, ce qui rendrait cet engagement juridiquement contraignant. Les plaintes que nous avons déposées sont en cours et nécessiteront une décision. "

🍃Une décision à suivre, mais qui prend le bon chemin, on en reparlera !!

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

19 juin 2024 à 10:11:26 via site

image

⏩️ Chat Control est incompatible avec les droits fondamentaux⏪️

Ave Caesar, morituri te salutant, le capitalisme sécuritaire est donc bien décidé à ruiner la liberté de communication en échange de quelques dollars en plus !!

La surveillance de masse indiscriminée est incompatible avec les droits fondamentaux à la vie privée et à la protection des données garantis par la Charte de l'Union européenne, qu'il s'agisse de communications chiffrées ou non chiffrées. Au centre des critiques du public concernant le contrôle des chats se trouve le fait que le projet de règlement n'exempte pas les services de communication chiffrée de bout en bout des injonctions de détection.

Un avantage anticoncurrentiel sur le dos d’un scan de toutes nos conversations

Dans leur lettre, les signataires soulignent aussi qu’en pratique, la mise en place d’une telle procédure constituerait une nouvelle charge administrative importante — une charge telle qu’elle pourrait « submerger (…) nos entreprises », craignent-ils. Au vu des volumes de communication en jeu, « même un taux d’erreur insignifiant des technologies appliquées à la recherche de “contenu abusif” entraînerait l’examen manuel de millions de faux positifs chaque jour ». En arrière-plan, ces PME du numérique rappellent qu’elles n’ont tout simplement pas les mêmes moyens que des géants comme Meta (WhatsApp) ou Apple (iMessage) qui pourraient sans difficulté embaucher des équipes dédiées à ce scan obligatoire.

◾Un effet paralysant pour les libertés de communication

La Cour européenne de justice a déjà averti à plusieurs reprises que la surveillance de masse indiscriminée a un impact négatif indirect sur la liberté d'expression (article 11 de la Charte des droits fondamentaux de l'UE) : les participants à la communication sont empêchés d'exprimer librement leurs opinions s'ils ne peuvent pas être sûrs de la confidentialité de leurs communications. Cela affecte particulièrement les détenteurs du secret professionnel, tels que les journalistes qui communiquent avec leurs sources, les dénonciateurs et les militants de l'opposition.

🍃Une logique de mort à combattre en allant défendre nos principes, plutôt que de se soumettre aux valeurs du capitalisme sécuritaire qui n’obéissent qu’à ce qui se fait, à ce qui plaît et à ce qui marche, on en reparlera !!

— Modifié le 19 juin 2024 à 11:47:24

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

20 juin 2024 à 15:11:35 via site

image

⏩️Chat Control est reporté ⏪️

Chat Control est reporté, on dit merci à Allemagne avec de justes conditions du numérique à réfléchir ensemble !!

Les gouvernements de l'UE ne se prononceront pas aujourd'hui comme prévu en faveur du contrôle des tchats, qui aurait sonné le glas des messages privés et du cryptage sécurisé. La présidence belge a retiré le point de l'ordre du jour à la dernière minute. C'est donc la énième fois que le contrôle du chat échoue au Conseil. Le député européen Patrick Breyer , combattant de la liberté numérique et négociateur de son groupe au Parlement européen exulte :

"Sans l'engagement et les protestations d'un nombre incalculable de personnes et d'organisations en Europe ces derniers jours, les gouvernements de l'UE auraient aujourd'hui décidé d'un contrôle totalitaire des chats à grande échelle, enterré le secret de la correspondance numérique et le cryptage sécurisé. Merci à tous ceux qui ont écrit ou téléphoné aux politiques. Le fait que nous soyons parvenus à stopper une nouvelle fois le contrôle orwellien des chats, malgré la chute de la France, mérite d'être célébré !

◾️Un report avec des questions qui restent sur la table à débattre ensemble

Il ne suffit pas de vouloir exclure uniquement les communications cryptées, il faut le pouvoir. L'examen des messages privés sans soupçon et avec un risque d'erreur est la partie la plus toxique du projet de règlement, mais les problèmes vont bien au-delà. Nous avons donc besoin d'une nouvelle approche qui mise sur la protection préventive des enfants plutôt que sur la surveillance de masse et la mise sous tutelle ! La dernière 'proposition de compromis' de la présidence belge du Conseil doit être fondamentalement revue sur au moins 4 points :

1)Pas de contrôle des tchats sans soupçon : au lieu d'un contrôle généralisé des messages et des tchats, la justice ne doit pouvoir ordonner que la fouille des messages et des téléchargements des suspects. C'est la seule façon d'éviter qu'une ordonnance disproportionnée sur la surveillance de masse échoue inévitablement devant les tribunaux et que rien ne soit obtenu du tout pour les enfants.

2) Protéger le cryptage sécurisé : Le "client-side scanning", qui permet d'infiltrer un cryptage sûr, doit être expressément exclu. Les déclarations générales sur le cryptage dans le texte de loi ne valent rien si le scannage et le détournement ont lieu avant même le cryptage. Nos appareils personnels ne doivent pas être pervertis en scanners.

3) protéger l'anonymat : Suppression des contrôles d'âge obligatoires par tous les services de communication afin de sauver le droit à la communication anonyme. Les lanceurs d'alerte risquent d'être réduits au silence s'ils doivent présenter leur carte d'identité ou leur visage au service de communication avant de procéder à des fuites.

4) Pas de censure pour les jeunes : Vouloir exclure complètement les jeunes des applications courantes telles que Whatsapp, Instagram ou les jeux pour les protéger contre le grooming est irréaliste et inacceptable. Au lieu de cela, les paramètres par défaut des services doivent être plus respectueux de la vie privée et plus sûrs".

🍃Un lourd débat à suivre, on en reparlera !!

— Modifié le 20 juin 2024 à 15:12:20

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

26 juin 2024 à 13:43:31 via site

⏩️L’absolutisme des algorithmes conduit à un véritable flicage des demandeurs d’emploi ⏪️

L’absolutisme des algorithmes conduit à un véritable flicage des demandeurs d’emploi selon la Quadrature du Net et ce n'est pas fini !!

Après la CAF, critiquée pour son recours aux algorithmes de notation ciblant les allocataires, France Travail (ex Pôle emploi) ? L’administration en charge d’accompagner les demandeurs d’emploi est dans le collimateur de la Quadrature du Net, qui s’alarme d’un « service public de l’emploi largement automatisé ». Quiconque passe par la case chômage et par une inscription à France Travail se verrait « évalué, trié, classé » non pas par des conseillers, mais par des algorithmes, explique mardi 25 juin l’association de défense des droits numériques dans un article publié sur son site Web.

À l’« accompagnement sur mesure de masse » et des « parcours personnalisés avec le numérique et l’intelligence artificielle » décrits par Thibaut Guilluy, le directeur de France Travail qui était interrogé le 30 mai dernier, l’association rétorque qu’il s’agit au contraire de davantage de contrôle réalisé par algorithmes. De quoi constituer une véritable « mécanisation et une déshumanisation de l’accompagnement » que les demandeurs d’emploi sont censés recevoir.

◾️Un système de notation sociale où les mauvaises notes se payent cher

Selon la Quadrature du Net, le virage aurait été pris dès 2013, initialement pour « lutter contre la fraude » aux indemnités chômage. Après des premiers travaux menés en interne, dont le bilan est mitigé, c’est Cap Gemini, la société de conseil, qui aurait pris la suite du développement de ces outils automatisés . Dès 2018, les chômeurs sont notés via un score de suspicion à la fraude, basé sur un certain nombre d’éléments comme les temps de travail, les salaires touchés, les condamnations ou sanctions administratives ou pénales, explique l’organisation de défense des libertés numériques. Un système d’alerte a aussi été testé, quand des « situations suspectes » apparaissent, entraînant des contrôles réalisés par des conseillers.

Aujourd’hui, le demandeur d’emploi est noté selon quatre scores de profilage psychologique destiné à évaluer la « dynamique de recherche » d’emploi, les « signes de perte de confiance », le « besoin de redynamisation » ou les « risques de dispersion », poursuit l’association. Si ces scores sont moindres, le conseiller doit agir, en faisant le point sur la situation du demandeur : une démarche qui pourrait aboutir à des actions d’accompagnement, qui pourraient s’intensifier. L’algorithme peut aussi à ce stade proposer des « conseils personnalisés » au demandeur d’emploi.

Autre élément pointé du doigt : l’interface XP RSA, qui obligera les demandeurs à déclarer leurs quinze à vingt heures d’activités hebdomadaires à réaliser, s’ils veulent toucher les minima sociaux : de quoi constituer « un pas supplémentaire vers le flicage des plus précaires », regrette la Quadrature du Net. Pour cette dernière, ces développements et recours aux algorithmes n’ont pas pour objectif de libérer du temps au conseiller. Ils serviraient à davantage contrôler les demandeurs d’emploi, et à « forcer les plus précaires à accepter des conditions de travail toujours plus dégradées ».

🍃Un système de notation qui a tout du crédit social, on en reparlera !!

— Modifié le 26 juin 2024 à 16:18:04

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

1 juil. 2024 à 18:02:26 via site

image

⏩️Pay or Okey n'est pas conforme au DMA⏪️

Selon Bruxelles, le système qui contraint l’utilisateur d’Instagram ou de Facebook à opter pour un abonnement payant n’est pas conforme au DMA, Meta qui s’il avait eu un peu de lettres et d'esprit, aurait pu éviter de risquer une amende allant jusqu’à 10 % de son chiffre d’affaires mondial, mais lamentable est son choix !!

Il s’agit d’une nouvelle étape dans la procédure qui a débuté trois mois plus tôt. En mars dernier, Margrethe Vestager, la commissaire européenne à la Concurrence, et Thierry Breton, son homologue au Marché intérieur, annonçaient ouvrir cinq enquêtes contre trois piliers du numérique : Apple, Alphabet (Google) et Meta. Bruxelles soupçonnait ces trois géants de ne pas respecter le DMA, un texte devenu applicable le 7 mars, et qui contraint les géants du Web à respecter de nouvelles règles du jeu.

Dans son avis préliminaire, la Commission européenne explique s’être penchée sur le nouveau modèle de recueil des données personnelles de Meta. Pour rappel, en novembre dernier, le groupe de Mark Zuckerberg suscitait la controverse en mettant en place son modèle du « pay or consent ». Ce système consiste à proposer deux options : soit l’utilisateur accepte que ses données personnelles soient collectées, auquel cas, il accède aux plateformes du groupe « gratuitement ». Soit il paie un abonnement payant et évite ainsi d’être la cible de publicité ciblée. Pour ce faire, il faut désormais payer 9,99 ou 12,99 euros par mois. Ce nouveau système avait été mis en place par Meta après plusieurs déconvenues judiciaires.

Le choix mis en place par Meta « ne permet pas aux utilisateurs d’exercer leur droit de consentir librement à la combinaison de leurs données personnelles ». Il ne permet pas non plus « d’opter pour un service qui utilise moins de données à caractère personnel, mais qui est par ailleurs équivalent au service basé sur les “annonces personnalisées” », précise l’exécutif européen, dans son communiqué. Comprenez : les utilisateurs qui ne donnent pas leur consentement sont censés avoir accès à un service équivalent qui utilise moins de données personnelles, comme par exemple une plateforme sans publicité personnalisée.

🍃Un choix lamentable qui se moque des utilisateurs, on en reparlera !!

— Modifié le 3 juil. 2024 à 16:45:25

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

2 juil. 2024 à 18:02:26 via site

image

⏩️La vidéosurveillance dopée à l’IA fait réagir la commission des droits de l’homme⏪️

La vidéosurveillance dopée à l’IA fait réagir la commission des droits de l’homme, c'est un bouleversement en profondeur de notre conception de l’espace public, une autre panoptique de Bentham !!

L’organe consultatif, qui a pour fonction de conseiller le gouvernement en matière de droits de l’homme, émet des recommandations au sujet de l’expérimentation de la vidéosurveillance algorithmée (VSA) déployée pendant les JO de Paris et jusqu’en mars prochain. Pour la CNCDH, il faut que les pouvoirs publics rétablissent « l’équilibre rompu » « entre les atteintes aux droits et libertés fondamentaux et la sauvegarde de l’ordre public ». Il en va de « notre choix de société », s’alarme-t-elle.

◾️Systématisation de la surveillance, implication d’acteurs surtout privés dans une mission régalienne…

Depuis la fin des années 90, les caméras de surveillance ont été déployées dans l’espace public avant d’être banalisées, explique la CNCDH. Cette autorité rappelle que « cette technologie policière ne doit être autorisée que dans de strictes limites motivées de lieux, de temps et de finalités, garanties par un contrôle effectif de leur installation et de leur mise en œuvre ». À cette utilisation s’est ajoutée l’intelligence artificielle (IA), en charge de détecter des comportements « anormaux » comme un mouvement de foule, une densité anormalement élevée, ou la présence d’un bagage abandonné.

Cette dernière technologie « s’inscrit dans la continuité de la vidéoprotection et, dans le même temps, (elle) semble en modifier la nature », note l’institution consultative. L’IA « permet en effet une systématisation et une intensification de la surveillance d’une part et, d’autre part, une implication inédite des acteurs privés – les concepteurs des logiciels – dans l’exercice d’une mission régalienne », ajoute-t-elle. L’État a en effet fait appel à des sociétés privées pour concevoir les algorithmes utilisés dans ces outils de vidéosurveillance, comme Briefcam.

◾️Un frein à la libre circulation, pire au droit de manifester

Autre problème relevé par cet organe : « ce dispositif renouvelé de vidéosurveillance » pourrait « induire un nouveau type de rapport entre la police et la population, caractérisé par la défiance et la distance ». Ces « nouvelles technologies ravivent la crainte d’une remise en cause de la possibilité pour quiconque d’exercer ses droits et libertés fondamentaux, y compris la liberté de manifester, dans l’espace public de manière anonyme », écrit-il.

Une caméra ne devrait pas, par principe, être active à toute heure de la journée et à tout moment de l’année, plaide-t-elle. Si la demande d’installation de ces dispositifs doit être adressée au préfet, elle devrait « exposer les risques de troubles à l’ordre public » qui justifie un tel recours. Le respect de ces exigences de nécessité et de proportionnalité devraient faire l’objet d’un contrôle indépendant systématique, poursuit la CNCDH. Aujourd’hui, l’intervention du juge administratif dépend en effet de l’action des associations de défense des droits sur lesquelles repose « l’effectivité du système », regrette-t-elle.

◾️Un bouleversement en profondeur de notre conception de l’espace public

Mais « au-delà des contrôles sur les modalités du recours à la VSA », c’est « le principe même de son utilisation qui mérite d’être questionné », écrit la Commission consultative. D’abord parce que « les citoyens ne sont (généralement) pas avertis dans le détail des objets et des situations détectés par la VSA ». Ce type de dispositif nécessite normalement que les personnes filmées en soient préalablement informées.

Problème : les tableaux d’affichage censés avertir les usagers de la présence de VSA sur la voie publique ne sont pas assez visibles, et ne comportent pas suffisamment d’informations — comme les finalités du dispositif, le responsable du traitement, la possibilité de déposer un recours auprès de la CNIL, note l’organe consultatif.

Or, « (ces outils) risquent de développer un sentiment de surveillance accrue ». Et cela est loin d’être anodin : « ces évolutions et ces perceptions bouleversent en profondeur notre conception de l’espace public en lui retirant toute dimension privée. La CNCDH rappelle que l’espace public a historiquement vocation à être un lieu de circulation anonyme qui permet l’exercice des libertés et le respect de la vie privée », écrit l’institution indépendante.

◾️Ce qui se joue en définitive, c’est un choix de société »

L’organe appelle de manière générale les pouvoirs publics à reconsidérer leur volonté d’accélérer le déploiement des dispositifs de vidéoprotection. Il « s’associe à la CNIL pour solliciter l’organisation d’un débat démocratique relatif à l’utilisation de la VSA ». Car si « garantir la sécurité publique est un objectif légitime » (…), « cela doit toutefois donner lieu à un examen circonstancié, en partant d’une exigence de minimisation de leur présence et de leur impact dans l’espace public ».

Les mots de la CNCDH sont particulièrement cinglants : « ce qui se joue en définitive, c’est un choix de société » : assurer la primauté de la liberté, des corps et des esprits, sous réserve des restrictions requises par la sauvegarde de l’ordre public, ou au contraire faire le choix de la brider par une surveillance généralisée et automatisée ».

🍃Une utilisation excessive de la vidéosurveillance qui transforme l’architecture en une autre panoptique de Bentham et où gare à qui n’est pas jugé suffisamment bienveillant, on en reparlera !!

— Modifié le 2 juil. 2024 à 18:11:00

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

3 juil. 2024 à 13:49:59 via site

image

⏩️Proton Docs⏪️

Proton annonce Proton Docs avec ses notes, son travail qui restent privés même en ligne !!

Docs dans Proton Drive offre une alternative sécurisée et respectueuse de la vie privée à Google Drive et Google Docs. Et cet aspect s’illustre sur un autre point : Proton Docs est un projet open source.
Cela signifie que quiconque peut en consulter le code afin de vérifier les promesses de Proton en matière de vie privée. Par ailleurs, l’entreprise se pliera à l’exercice de l’audit indépendant régulier pour ce nouveau produit, comme pour les précédents.

Prochainement, Proton Docs s’enrichira de nouvelles fonctionnalités, promet l’entreprise sans détailler le contenu de sa feuille de route. Reste que Proton Docs est désormais accessible gratuitement pour toutes et tous, directement depuis Proton Drive. La formule gratuite permet d’accéder à 5 Go de stockage, au-delà desquels un abonnement Proton Unlimited (9,99€ par mois) est nécessaire. Ce dernier inclut notamment l’accès à Proton Mail, Proton Calendar, à Proton VPN et à la version complète de Proton Pass.

🍃Une alternative pour qu’en ligne aussi ce qui est privé, reste privé, pas collecté, pas revendu, pas scanné pour y analyser des intentions qu'on n'a même pas eu, on en reparlera !!

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

9 juil. 2024 à 12:08:13 via site

image

⏩️Invalidité ? Enceinte ? LGBT et puis quoi d’autre encore pour faire vendre?⏪️

Nyob pose plainte en Italie sur les abus de Microsoft pour faire de la réclame sur le dos de nos données même pas vérifiées !!

Le courtier en publicité Xandr (une filiale de Microsoft) collecte et partage les données personnelles de millions d'Européens à des fins de publicité ciblée détaillée. Cela permet à Xandr de vendre aux enchères des espaces publicitaires à des milliers d'annonceurs. Mais, bien qu'une seule publicité soit finalement montrée aux utilisateurs, tous les annonceurs reçoivent leurs données. Il peut s'agir de données personnelles concernant leur santé, leur sexualité ou leurs opinions politiques. De plus, bien qu'elle vende son service comme étant "ciblé", l'entreprise détient des informations plutôt aléatoires : le plaignant est apparemment à la fois un homme et une femme, employé et chômeur. Cela pourrait permettre à Xandr de vendre des espaces publicitaires à de multiples entreprises qui pensent cibler un groupe spécifique. Certains détails restent inconnus, car Xandr a également refusé de donner suite à la demande d'accès et d'effacement du plaignant. noyb a déposé une plainte au titre du règlement GDPR.

◾️Une publicité 100% explicite

. Si les entreprises souhaitent utiliser la publicité ciblée pour promouvoir leurs produits ou services en ligne, elles doivent passer par des plateformes dites d'enchères en temps réel (Real Time Bidding - RTB). L'une de ces plateformes est gérée par Xandr, une filiale de Microsoft, qui permet aux annonceurs d'acheter des espaces publicitaires sur des sites web ou dans des applications mobiles de manière entièrement automatisée. Lorsqu'un utilisateur visite un site web, une vente aux enchères algorithmique a lieu afin de décider quelle entreprise peut afficher une publicité. Étant donné que les intérêts et les caractéristiques d'un utilisateur déterminent en fin de compte la volonté d'un annonceur de placer une publicité, Xandr recueille et partage une quantité massive de données personnelles afin d'établir le profil des utilisateurs et de permettre le ciblage. Une grande partie de ces données est achetée par des parties externes comme emetriq, une filiale de German Telecom.

Invalidité ? Enceinte ? LGBT ? Des recherches antérieures ont montré que Xandr recueille des centaines de profils sensibles d'Européens contenant des informations sur leur santé, leur vie sexuelle ou leur orientation sexuelle, leurs opinions politiques ou philosophiques, leurs croyances religieuses ou leur situation financière. Les segments spécifiques comprennent des éléments tels que "french_disability", "pregnant", "lgbt", "gender_equality" et "jewishfrench".

◾️Une collecte de nos données 100% en infraction au RGPD

Selon le GDPR, chacun a le droit d'accéder à ses informations. Cependant, malgré la collecte de grandes quantités d'informations détaillées sur les personnes, Xandr fait état d'un taux de réponse étonnant de 0 % aux demandes d'accès et d'effacement en 2022. Xandr publie même ces statistiques internes sur un site web caché, à la vue de tous. Le plaignant a fait l'expérience directe de cette approche : Lorsqu'il a demandé l'accès à ses données, Xandr a prétendu qu'elle ne pouvait pas l'identifier - et a rejeté sa demande d'accès et d'effacement. En réalité, l'entreprise dispose de toutes les informations nécessaires pour identifier les personnes concernées. L'identification et le ciblage des individus sont en effet au cœur de son activité.

Massimiliano Gelmi, avocat spécialiste de la protection des données chez noyb: "L'activité de Xandr repose manifestement sur la conservation de données relatives à des millions d'Européens et sur le ciblage de ces derniers. Pourtant, l'entreprise admet que son taux de réponse aux demandes d'accès et d'effacement est de 0 %. Il est étonnant que Xandr illustre même publiquement la manière dont elle enfreint le GDPR"

◾️Des données vendues pour de vrai ou tout est totalement faux

En outre, le GDPR exige que les données concernant les individus soient "exactes". Or, les informations disponibles suggèrent que le système de Xandr utilise des tonnes de fausses informations sur les utilisateurs. Même d'un point de vue commercial, Xandr semble se moquer de l'idée de publicité ciblée. Grâce à une demande d'accès auprès du courtier en données - et fournisseur de Xandr - emetriq, nous savons qu'au moins une partie de la base de données de Xandr est constituée de données personnelles extrêmement inexactes et contradictoires sur les personnes : Selon emetriq, le plaignant est à la fois un homme et une femme, dont l'âge est estimé entre 16-19, 20-29, 30-39, 40-49, 50-59 et 60+. Le plaignant dispose également d'un revenu compris entre 500 et 1 500 euros, 1 500 et 2 500 euros et 2 500 et 4 000 euros. En outre, la même personne est à la recherche d'un emploi, est employée, étudiante, élève et travaille dans une entreprise. Cette dernière, à son tour, emploie 1-10, 1 000+ et 1 100-5 000 personnes en même temps. Il est difficile d'imaginer comment ces catégories de données peuvent être utilisées pour un ciblage publicitaire précis. Bien qu'emetriq ne soit pas le seul courtier en données à fournir des données à Xandr, on peut supposer que ces informations sont utilisées pour le ciblage publicitaire.

Massimiliano Gelmi, avocat spécialiste de la protection des données chez noyb: "Il semble que certaines parties du secteur de la publicité ne se soucient pas vraiment de fournir aux annonceurs des informations exactes. Au lieu de cela, l'ensemble des données contient une variété chaotique d'informations contradictoires. Cela peut potentiellement profiter à des entreprises comme Xandr, qui peuvent vendre le même utilisateur, jeune ou vieux, à différents partenaires commerciaux."

🍃Un système lucratif de collecte et de revente qui se moque de notre droit à la confidentialité et qui nous colle à tous une trompeuse réputation, on en reparlera !!

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

22 juil. 2024 à 12:06:30 via site

image

⏩️Le paramètre de confidentialité stricts par les parents n'empêche pas les entreprises d'entraîner leurs IA sur les photos d'enfants ⏪️

Jusqu'où les entreprises vont-elles s’autoriser à traquer nos données pour défendre leur droit à l’innovation sur le dos de notre sécurité et de nos droits, on s’interroge avec aucune limite selon le récent rapport de Human Rights Watch !!

Les parents utilisent des paramètres de confidentialité stricts sur les applications dont ils font usage. Cela n’empêche pas les entreprises d’entraîner leurs modèles d’intelligence artificielle sur les photos de leurs enfants. C’est ce qui ressort d’un récent rapport de Human Rights Watch qui ravive les débats sur de nombreux sujets à controverse dont celui des droits dont jouissent les entreprises de la filière technologique sur le web.

Des photos personnelles d'enfants australiens sont utilisées pour créer de puissants outils d'intelligence artificielle (IA) à l'insu et sans le consentement des enfants ou de leurs familles. Ces photos sont récupérées sur le web pour constituer un vaste ensemble de données que les entreprises utilisent ensuite pour entraîner leurs outils d'intelligence artificielle. À leur tour, d'autres utilisent ces outils pour créer des deepfakes malveillants qui mettent encore plus d'enfants en danger d'exploitation et de préjudice.

« Les enfants ne devraient pas avoir à vivre dans la crainte que leurs photos soient volées et utilisées contre eux », a déclaré Hye Jung Han, chercheuse et avocate spécialisée dans les droits de l'enfant et la technologie à Human Rights Watch. « Le gouvernement australien devrait adopter de toute urgence des lois visant à protéger les données des enfants contre l'utilisation abusive de l'IA. »

Une analyse réalisée par Human Rights Watch a révélé que LAION-5B, un ensemble de données utilisé pour former les outils d'intelligence artificielle les plus répandus et constitué à partir de la plus grande partie de l'internet, contient des liens vers des photos identifiables d'enfants australiens. Le nom de certains enfants figure dans la légende qui accompagne la photo ou dans l'URL où elle est stockée. Dans de nombreux cas, il est facile de retrouver leur identité, y compris des informations sur le moment et le lieu où l'enfant se trouvait au moment où la photo a été prise.

◾️Un droit à l’innovation qui bafoue notre sécurité et nos droits

C’est une position intenable selon le PDG de Limit à propos de l’AI Act : « Il s’agit de la pire réglementation : large, radicale, tout le monde est techniquement en infraction d’une manière ou d’une autre, mais vous pouvez payer pour la combattre. Les entrepreneurs obéissants et respectueux des règles perdront tout leur temps et leur argent à essayer de se conformer à chaque paragraphe de la loi sur l’IA. De plus en plus d’entrepreneurs soucieux de la Realpolitik placeront leur entreprise dans une zone grise, supposeront que s’ils réussissent, ils seront un jour poursuivis en justice et économiseront des fonds pour cette éventualité.

Et s’ils sont poursuivis, quelles sont les sanctions ? Jusqu'à 7% du chiffre d'affaires annuel mondial. C'est une farce. Si l’UE affirme que cette technologie est si dangereuse qu’elle nécessite une réglementation à l’échelle européenne, alors les sanctions devraient en réalité être beaucoup plus lourdes. S’il y a un mauvais acteur qui dirige une entreprise d’IA massivement abusive et que la plus grande menace à laquelle il est confronté est une pénalité de revenus de 7 % qu’il peut probablement réduire à 2 % après quelques années de litige, alors cela n’a aucun effet dissuasif ! Ces entreprises fonctionnent avec une marge brute de 75 %. Vous avez une année qui tourne à 73% ? Cela n’a pas d’importance.

Cela place la loi sur l’IA dans une situation intermédiaire lamentable en matière de réglementation : suffisamment ennuyeuse pour dissuader les entrepreneurs légitimes, suffisamment édentée pour ne pas empêcher des abus à grande échelle. Je suis choqué que la loi sur l’IA ne prévoie aucune possibilité d’interdire quelque chose qui serait réellement dangereux, comme une machine de propagande optimisée par l’IA et financée par l’État, se faisant passer pour un rése

🍃Un modèle qui sabote la confiance en échange de quelques dollars de plus , c'est bien le pire, on en reparlera !!

— Modifié le 22 juil. 2024 à 12:15:05

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

23 juil. 2024 à 10:32:33 via site

image

⏩️81% des Français utilisent des appareils lorsqu'ils sont au lit ⏪️

81% des Français utilisent des appareils lorsqu'ils sont au lit et les écoutes actives alors !!

◾️81% des Français utilisent des appareils lorsqu'ils sont au lit

Une récente enquête menée par la société de cybersécurité NordVPN a révélé que 81 % des Français emportent leurs appareils au lit. La majorité des Français utilisent plus de trois appareils au lit.
Parmi les gadgets utilisés au lit, les Français donnent la priorité aux smartphones (86 %), suivis des téléviseurs (49 %) et des ordinateurs portables (35 %).

Alors que la plupart des Français (60%) parcourent les réseaux sociaux, 59 % consultent leurs e-mails et leurs messages lorsqu'ils sont au lit. Plus de la moitié des Français (51 %) regardent des films et propagandes TV et 46 % regardent des vidéos ( de type YouTube).
Parmi les autres activités, les Français jouent à des jeux videos (42%), discutent avec leur famille et amis (39%), lisent ou écoutent les informations (32 %). Seuls 29% verifient les prévisions météorologiques, tandis que 28% font des achats en ligne.

◾️Camera et micro activés dans son lit et le plan justice alors !

Plan justice, on s'en souvient c'était l’activation à distance des micros et caméras des appareils connectés (téléphones, ordinateurs, TV) par les autorités.
Une mesure censurée par le conseil constitutionnel, mais une mesure qui existe quand même quand "Le gouvernement entendait autoriser cette nouvelle technique d'enquête dans les affaires de terrorisme, de délinquance et criminalité organisée. Cela concerne des « dizaines d'affaires par an », ce qui est « loin du totalitarisme de 1984 », le roman de George Orwell, avait répondu Eric Dupond-Moretti. Le garde des Sceaux comparait la mesure à la « vieille technique » de micros ou de caméras posés chez des suspects.
Il soulignait aussi que le déclenchement à distance d'appareils connectés est déjà utilisé par les services de renseignement, sans l'autorisation du juge, qui devait être ici indispensable. "

◾️Pas de plan justice officiellement et les écoutes actives alors !!

Il est apparu l’année dernière que Google volait secrètement tout ce qui avait été créé et partagé sur Internet par des centaines de millions d'Américains. Google a pris toutes nos informations personnelles et professionnelles, nos travaux créatifs et rédigés, nos photographies et même nos e-mails - la quasi-totalité de notre empreinte numérique - et les utilise pour créer des produits commerciaux d'intelligence artificielle ("IA") comme "Bard", le chatbot que Google a récemment lancé pour concurrencer le « ChatGPT » d'OpenAI. Pendant des années, Google a récolté ces données en secret, sans préavis ni consentement de quiconque.

Ce vol massif d'informations personnelles a stupéfié les internautes du monde entier, mais Google n'est pas le seul mauvais acteur de la nouvelle économie de l'IA. Selon les termes de la FTC, l'ensemble de l'industrie technologique "sprinte pour faire de même", c'est-à-dire pour aspirer autant de données qu'elle peut trouver. En effet, les grands modèles de langage sur lesquels s'exécutent les produits d'IA dépendent de la consommation de quantités massives de données pour "former" l'IA. Sans cela, les produits d'IA seraient sans valeur.

Les données personnelles de toutes sortes, en particulier les données de conversation entre humains, sont essentielles au processus de formation à l'IA. C'est ainsi que des produits comme Bard développent des capacités de communication humaines. Les œuvres créatives et expressives sont tout aussi précieuses car c'est ainsi que les produits d'IA apprennent à "créer" de l'art.

La FTC a lancé un avertissement sévère à l'industrie de l'IA le mois dernier concernant ce sprint soudain pour collecter autant de données de formation qu'elle peut en trouver*: "L'apprentissage automatique n'est pas une excuse pour enfreindre la loi... Les données que vous utilisez pour améliorer vos algorithmes doivent être légalement collectées. … les entreprises feraient bien de tenir compte de cette leçon".
Plutôt que de tenir compte de l'avertissement de la FTC et d'arrêter son vol de données qui dure depuis des années, Google a choisi de "mettre à jour" discrètement sa politique de confidentialité en ligne la semaine dernière pour renforcer sa position selon laquelle l'entreprise peut tout prendre sur Internet à des fins privées et commerciales, y compris pour créer et améliorer des produits d'IA comme Bard.

🍃Un sévère avertissement, un coup d'épée dans l'eau quand les utilisateurs banalisent les mauvaises pratiques, c'est que le moment est venu à tous de réagir, on en reparlera !!

— Modifié le 23 juil. 2024 à 11:13:03

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

23 juil. 2024 à 12:07:03 via site

image

⏩️La certification européenne EUCS veut permettre l’accès aux données sensibles s’alerte la CNIL⏪️

La certification européenne EUCS veut permettre l’accès des autorités étrangères aux données sensibles s’alarme la CNIL !!

Dans son état actuel, le projet de certification européenne pour les services de cloud (EUCS) ne permet plus aux fournisseurs de démontrer qu’ils protègent les données stockées contre tout accès par une puissance étrangère, contrairement à la qualification SecNumCloud en France. La CNIL appelle à rehausser le niveau de protection des données personnelles de cette certification en réintroduisant de telles garanties.

◾️Des données sensibles qui doivent être particulièrement protégées, comme les données de santé

Les données stockées par une entreprises soumise à un droit extra-européen, comme c’est le cas des hébergeurs dont les sociétés mères sont situées aux États-Unis, peuvent être exposées à un risque de devoir communiquer des données aux autorités publiques de ce pays. Ce risque est le plus souvent considéré comme limité, en particulier pour des données non sensibles confiées à des prestataires relevant de « pays adéquats » en termes de protection des données personnelles. C’est notamment le cas pour les États-Unis, qui constituent un « pays adéquat » depuis la décision de la Commission européenne du 10 juillet 2023 (dans les conditions précisées par le Data Privacy Framework). Cependant, une protection renforcée s’impose pour les traitements de données les plus sensibles (par exemple de grandes bases de données de santé, de données d’infractions ou encore de données relatives à des mineurs), pour lesquels les données hébergées dans l’Union européenne ne devraient pas être sujettes à un risque d’accès non autorisé par des autorités d’États tiers.

Dans ce cas, la CNIL recommande de recourir à un prestataire exclusivement soumis au droit européen et offrant le niveau de protection adéquat. En France, pour les services d’informatique en nuage (ou cloud en anglais), la certification SecNumCloud de l’Agence nationale de la sécurité des systèmes d’information (ANSSI) comprend ce critère et permet ainsi une protection des données contre les accès par des autorités étrangères.

◾️Les lacunes et risques du projet de certification européenne EUCS

La possibilité de s’assurer, pour ces traitements les plus sensibles, que l’hébergeur des données n’est pas soumis à une législation extra-européenne ne figure plus dans le projet de certification européenne de cybersécurité du cloud EUCS piloté par l’Agence de l’Union européenne pour la cybersécurité (ENISA), même dans les niveaux de certification les plus élevés, et même à titre optionnel.

Cette évolution, qui doit être rediscutée dès que la nouvelle Commission européenne aura été constituée, prive les acteurs d’un cadre concret pour garantir la protection des droits et libertés fondamentaux pour les citoyens européens dans le cadre de tels traitements.

En France, la CNIL recommande depuis longtemps, pour les bases de données personnelles les plus sensibles (telles que le système national des données de santé (SNDS) ou les données qui concernent des mineurs), d’assurer une protection contre les possibilités de divulgation à des autorités publiques de pays tiers. La CNIL a exprimé cette préoccupation à de nombreuses reprises.

◾️Par ailleurs, l’absence de niveau incluant des critères « d’immunité » pose problème sur le plan juridique, économique, technologique et industriel :

Elle ne permet pas de stimuler l’offre européenne en matière de cloud, qui constitue le moyen technique de répondre aux besoins de développement et déploiement des systèmes d’intelligence artificielle. Elle n’offre pas non plus les moyens de faciliter l’accès à la commande publique pour les offreurs européens, là où les acteurs dominants actuels en ont pleinement bénéficié dans leur pays d’origine (en particulier via le programme FedRAMP aux États-Unis).

Elle ne permet pas aux acteurs publics et privés de s’appuyer sur la certification EUCS pour externaliser dans le cloud leurs projets les plus sensibles, à l’image de ce que prévoit la doctrine « Cloud au centre » de l’État français pour les administrations. Celle-ci demande en effet aux autorités publiques de s’assurer que les données « d’une sensibilité particulière » hébergées dans le cloud ne soient pas soumises à des lois extra-européennes pouvant impliquer des injonctions de communication.

🍃Des données publiques sensibles, nos données de santé, les données de nos enfants qui n'ont pas être revendues pour nourrir la publicité ciblée des clouder américains, on en reparlera !!

— Modifié le 23 juil. 2024 à 13:06:31

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

23 juil. 2024 à 18:08:52 via site

image

⏩️Panne mondiale de Microsoft, la FTC s'en mêle ⏪️

Face à l’ampleur de la panne mondiale de Microsoft, la FTC réagit et remet en question la concentration du marché qui engendre de telles fragilités systémiques !!

◾️Le Congrès et les régulateurs s’en mêlent

Pas question pour les autorités de laisser passer un tel incident. Les dirigeants de la Chambre des représentants américaine n’ont d’ailleurs pas tardé à réagir. Mark E. Green et Andrew Garbarino, à la tête du comité de la sécurité intérieure, ont sommé George Kurtz, PDG de Crowdstrike, de témoigner devant le Congrès. Leur message est clair : les Américains méritent des explications détaillées sur les circonstances de cet incident et les mesures d’atténuation mises en place.

Cette convocation parlementaire n’est que la partie émergée de l’iceberg. Lina Khan, présidente de la Federal Trade Commission (FTC), a publiquement remis en question la concentration du marché qui engendre de telles fragilités systémiques. Ses propos laissent entrevoir la possibilité d’une enquête antitrust, ajoutant une nouvelle dimension aux défis auxquels Crowdstrike devra faire face.
Cette affaire en effet soulève des questions plus larges sur la concentration du pouvoir entre les mains de quelques acteurs technologiques. Elle pourrait bien marquer un tournant dans la manière dont les autorités réglementent le secteur de la cybersécurité, avec des implications potentielles pour l’ensemble de l’industrie.

◾️Des millions d’heures de travail pour corriger le tir, des conséquences catastrophiques

Pour justifier cette convocation d’urgence, les parlementaires pointent du doigt les conséquences désastreuses de la panne sur « des fonctions clés de l’économie mondiale, y compris l’aviation, les soins de santé, la banque, les médias et les services d’urgence ». Comme le rappelle la lettre adressée à George Kurtz, la mise à jour défectueuse a obligé les compagnies aériennes à annuler plus de 3 000 vols commerciaux aux États-Unis. Plus de 11 800 ont été retardés, tandis que les techniciens informatiques réparaient manuellement chacun des ordinateurs touchés à l’aide de l’outil de récupération fourni par Microsoft.

Les dirigeants de la Chambre mettent aussi en exergue l’impact de la panne sur le monde de la santé. Certains hôpitaux ont été contraints de reporter des opérations chirurgicales. De plus, les services d’urgence américains ont connu de sérieuses perturbations. Les parlementaires soulignent aussi que la panne est encore loin d’être résolue. Les experts estiment qu’il va falloir des jours, voire des semaines, pour un retour à la normale complet.

◾️Une gigantesque panne chez les uns, un léger courant d'air chez les autres

CrowdStrike, une société américaine de cybersécurité dont le logiciel « Falcon Sensor », largement utilisé, a provoqué le crash de Microsoft Windows, n'avait pas de clients connus en Russie. Le marché russe est dominé par des entreprises locales de cybersécurité telles que Kaspersky Labs.
« CrowdStrike n'a fourni aucun service en Russie depuis février 2022 », a déclaré Mikhail Klimarev, de l'organisation non gouvernementale Internet Protection Society.

Le Kremlin, ainsi que des entreprises telles que le géant nucléaire Rosatom, qui exploite toutes les centrales nucléaires russes, ou les principaux prêteurs et compagnies aériennes, n'ont signalé aucun problème lors de la panne qui a touché des entreprises internationales dans le monde entier.
« La situation met une fois de plus en évidence l'importance de la substitution des logiciels étrangers », a déclaré le ministère russe du Développement numérique.
Les marchés financiers et monétaires russes ont également fonctionné sans problème.

🍃Une panne qui pointe du doigt sans aucun doute la concentration du pouvoir entre les mains de quelques acteurs technologiques, on en reparlera !!

— Modifié le 23 juil. 2024 à 18:12:40

Keep Calm and Love Android.

Utile ?
Répondre
Luna
  • Admin
  • Posts de Forum 72 338

25 juil. 2024 à 11:17:25 via site

image

⏩️Jeux Olympiques hypocrites⏪️

Le VSA bâtit son empire à l'ombre des jeux olympiques pour s’accaparer l’espace public, s’indigne la Quadrature du Net !!

Les Jeux Olympiques vont nous laisser la surveillance de masse en héritage. En instrumentalisant cet évènement, le gouvernement a autorisé l’utilisation de la vidéosurveillance algorithmique (VSA) jusqu’en 2025 pour des situations qui dépassent largement le cadre cette compétition sportive. Ces logiciels, qui analysent les images de vidéosurveillance et envoient automatiquement des alertes à la police, sont déployés depuis des années en France en toute illégalité, sans que jamais les responsables n’aient été inquiétés. L’hypocrisie est donc totale. En légalisant quelques usages de VSA, l’État souhaite légitimer un état de fait et amorcer un projet de surveillance bien plus large de l’espace public.

◾️S’opposer aux expérimentations

Pendant toute l’année à venir, les festivals, matchs de foots ou autres marchés de Noël seront le terrain de jeu de la vidéosurveillance algorithmique. Sur la base de la loi relative aux Jeux Olympiques du 19 mai 2023, les préfectures pourront ainsi utiliser des algorithmes visant à détecter huit types de situations , dans et aux abords des lieux accueillant du public et des réseaux de transport. Franchir une ligne, marcher à contre-sens ou faire partie d’une « densité trop importante de personnes » pourront conduire à des signalement automatiques à destination de la police, dans les centres où sont visionnés les images de vidéosurveillance. Qu’on ne s’y trompe pas : le danger ne réside pas tant dans ces quelques usages limités que dans l’élargissement programmé des cas d’usage et, à terme, le projet d’une surveillance systématique et généralisée de l’espace public.

◾️Ce qui se joue en définitive, c’est un choix de société

La comission des droits de l’homme appelle de manière générale les pouvoirs publics à reconsidérer leur volonté d’accélérer le déploiement des dispositifs de vidéoprotection. Il « s’associe à la CNIL pour solliciter l’organisation d’un débat démocratique relatif à l’utilisation de la VSA ». Car si « garantir la sécurité publique est un objectif légitime » (…), « cela doit toutefois donner lieu à un examen circonstancié, en partant d’une exigence de minimisation de leur présence et de leur impact dans l’espace public ».

Les mots de la CNCDH sont particulièrement cinglants : « ce qui se joue en définitive, c’est un choix de société » : assurer la primauté de la liberté, des corps et des esprits, sous réserve des restrictions requises par la sauvegarde de l’ordre public, ou au contraire faire le choix de la brider par une surveillance généralisée et automatisée ».

🍃Une utilisation excessive de la vidéosurveillance qui transforme l’architecture en une autre panoptique de Bentham et où gare à qui n’est pas jugé suffisamment bienveillant, on en reparlera !!

— Modifié le 25 juil. 2024 à 11:19:15

Keep Calm and Love Android.

Utile ?
Répondre