- cross-posted to:
- fuck_ai
- technology
- [email protected]
- cross-posted to:
- fuck_ai
- technology
- [email protected]
Première question et je suis tombé sur le problème de ChatGPT : c’est un gros mytho.
Je lui ai demandé quelques blogs peu connus sur divers sujets, et il m’a listé une série de blogs, avec leurs auteurs, mais qui n’existaient pas - ni les blogs, ni leurs auteurs. C’était assez alléchant et décevant.
Ah, le coup classique des IA génératives
Putain il m’a eu une fois comme ça, je lui demandais des suggestions de bouquins de vulgarisation et il m’a inventé le truc le plus alléchant du monde.
J’ai donc arrêté de l’utiliser pour de la recherche à tout jamais.
Je me.demande quel est le surcoût énergétique de passer par.une la pour la.recherche. en prenant en compte potentiellement insuccès plus rapide de.la recherche
Je suis tombé dessus par hasard, ça a bien répondu à la question que je lui ai posée (quelle est la taille idéale de pot pour un plant de basilic?)
En anglais pour l’instant
ce n’est pas la taille qui compte.
Effectivement, tout le monde sait bien que c’est le goût
9-15 cm ? de profondeur je trouve que c’est un peu petit. Peut-etre que c’est des pouces ? ^^
C’était des pouces il me semble effectivement, j’avais du reformuler pour avoir la version en système métrique
J’espère qu’ils vont abandonner ce système impérial…9 pouces, ça devrait le faire :)
Il me semble que le problème c’est l’entraînement du modèle sur des données récentes, ça prend encore un temps assez important.
Tu as essayé des questions sur des infos récentes ?
Ah, intéressant effectivement. Peut-être qu’ils utilisent une API Google pour avoir accès aux résultats brut, et qu’ils refont un affinement derrière?