• @Quentintum
    link
    Français
    8
    edit-2
    10 months ago

    deleted by creator

      • @Quentintum
        link
        Français
        2
        edit-2
        10 months ago

        deleted by creator

        • Camus (il, lui)OP
          link
          fedilink
          Français
          21 year ago

          Oui, le Robert est connu pour être plus descriptif, donc coller à l’usage des gens. Personnellement, je trouve la notion de chiffrement/déchiffrement avec clé et déchiffrage sans clé assez pertinente, sans ça tu ne sais pas forcément dans quel cas tu te trouves

    • DniMam
      link
      Français
      21 year ago

      je connais très mal le sujet.

      En fait, je voyais le chiffrement au niveau du serveur et pas tant au niveau de la communication. Si on entre dans le serveur, tous les fichiers seraient chiffrés. Et on pourrait pas prendre tout le contenu sans posséder les clef de l’admin et donc cela bloquerait les robots.

      Apres si on lit publiquement le contenu alors le robot peut le lire ? Est ce que ça protegerait aussi nos ID ou c’est autre chose ? Enfin, je crois que j’ai besoin de documentation. J’atteins mes limites en tant que sysop amateur.

      • Camus (il, lui)OP
        link
        fedilink
        Français
        71 year ago

        Quel serait l’intérêt de chiffrer des données qui sont accessibles via le site ? Lemmy, 99% des données, ce sont les fils et les commentaires.

        Certaines données devraient être chiffrées (comme les adresses e-mail des utilisateurs, mais sur pas mal d’instances elles sont facultatives). Les mots de passe sont normalement gérés par de hashes avec des salt, donc impossible de retrouver le mot de passe sur base du hash.

        • DniMam
          link
          Français
          11 year ago

          Empecher les robots de recupérer nos données ? Le web scrapping par exemple ? Mais je sais pas techniqaement comment ça fonctionne.

          Je me dis, ce que je lis est en clair car dechiffré au niveau du client et le reste des transit, stockage est inaccessible aux robots car chiffré.

          • Camus (il, lui)OP
            link
            fedilink
            Français
            41 year ago

            D’accord, mais pourquoi est-ce que les robots iraient récupérer nos données sur le serveur, alors qu’ils peuvent simplement parcourir le site Lemmy et tout copier?

            • DniMam
              link
              Français
              1
              edit-2
              1 year ago

              Justement c’est surement parce que je connais pas l’aspect technique et donc si tu as des ressources à me recommander, je veux bien. Dans ma tete, le robot et l’utilisateur n’utilisent pas les meme canaux pour recuperer et lire le contenu. Ca vient du fait que si j’utilise sftp pour recuperer les données de mon nuage et bien sans mes ID, c’est impossible de les lire. Si j’utilise un client et que je me connecte avec mes ID, alors je peux les lire.

              Et donc j’imaginais un truc comme ça.

              • Camus (il, lui)OP
                link
                fedilink
                Français
                41 year ago

                En fait la différence principale c’est qu’ici, les messages sont accessibles via le site, en HTTP, par tout le monde, là où ton serveur SFTP ne l’est pas.

                Si quelqu’un demain décide de récupérer tous mes commentaires sur Lemmy, il n’a qu’à aller sur mon profil et copier les messages.

                Je ne sais pas si c’est plus clair ?

                • DniMam
                  link
                  Français
                  21 year ago

                  Oui effectivement c’est plus clair. Je vais réviser un peu les protocoles du coup et trouver de quoi comprendre comment le web scrapping marche.