accarien wrote:Je sais pas si c'est conseillé, car n'y aura t'il pas des problemes si tu dois utiliser ton tex sous windoz ?
@+
Pour avoir testé ça fout un peu la bordel, tous les accents sont alors remplacés par des trucs genre e\' et du coup après c'est plus lisible 🙂. Pour jongler entre windows et linux je recommande définitivement l'encodage iso !!!
snouffy wrote:
accarien wrote:Je sais pas si c'est conseillé, car n'y aura t'il pas des problemes si tu dois utiliser ton tex sous windoz ?
@+
Pour avoir testé ça fout un peu la bordel, tous les accents sont alors remplacés par des trucs genre e\' et du coup après c'est plus lisible 🙂. Pour jongler entre windows et linux je recommande définitivement l'encodage iso !!!
Quelle idée de vouloir travailler sous windows:hammer:
Plus sérieusement, ça devrait être automatique tout ça
@mmp35h : malheureusement non ça n'est pas toujours automatique !!! Et quand on travaille à plusieurs sur un projet tex et que quelques uns sont encore sous windows, c'est très problèmatique !!! 🙂.
Dans le cas où plusieurs utilisateurs travaillent sur un même fichier (La)TeX sous des systèmes différents (et donc des encodages par défaut tout aussi différents), le plus sûr (et recommandé par les TeXperts) reste encore de convenir que tout le monde utilise les notations ASCII, si illisibles (vraiement) soient-elles :
é ? \'e
ç ? \c c
? ? \v c
...
C'est la seule solution vraiment po(r)table.
Bah oui mais c'est dèja pas tres lisible sans compiler mais alors si en plus on se la joue à la dur de dur, ca devient carrément illisible.

Perso je préfère la pirouette encodage en iso 😉

@+
snouffy wrote:@mmp35h : malheureusement non ça n'est pas toujours automatique !!! Et quand on travaille à plusieurs sur un projet tex et que quelques uns sont encore sous windows, c'est très problèmatique !!! 🙂.
Je me suis mal fait comprendre 🙁
Je dis juste que l'encodage des caractères sur les fichiers latex devrait être reconnu de manière automatique.
Le problème est que tu ne peux pas déterminer à coup sûr à 100% de manière déterministe l'encodage d'un fichier donné (sauf cas particulier).
La plupart des éditeurs, lorsqu'ils offrent la possibilité d'une telle détection, le font par des méthodes statistiques (par exemple, occurences d'une séquence de caractères donnés), des dictionnaires, etc. Et je ne parle pas des autres, qui ouvrent et enregistrent un fichier en utilisant un encodage fixé si on ne le précise pas explicitement (qui a parlé de l'éditeur de texte de Windows ?). Et s'il y a maldonne sur l'encodage du fichier, tu es bon pour corriger ton fichier à la main (surtout s'il est long, c'est plus drôle).

Pour (La)TeX, je ne vois que deux solutions acceptables : ou tout le monde se met à UTF-8 (standard de facto sous Linux) (encore que certains pourraient utiliser de vielles distributions (La)TeX sans support d'Unicode par inputenc), ou se met à ASCII (quitte à répéter, c'est la seule solution portable).

ÉDIT : pour ceux que ça intéresse, une description (rapide) des algorithmes en jeu dans utrac, un détecteur d'encodage assez performant :
http://utrac.sourceforge.net/other_doc/uu.html
Pikachu_2014 wrote:Pour (La)TeX, je ne vois que deux solutions acceptables : ou tout le monde se met à UTF-8 (standard de facto sous Linux) (encore que certains pourraient utiliser de vielles distributions (La)TeX sans support d'Unicode par inputenc), ou se met à ASCII (quitte à répéter, c'est la seule solution portable).
Je code pas trop (pour ainsi dire pas du tout) et en python au début de ton code :
[c]# -*- coding:Utf-8 -*-[/c]
Quoi de plus simple?
C'est une solution, mais combien d'éditeurs peuvent interpréter une telle ligne placée dans ton fichier pour fixer l'encodage ?
Pikachu_2014 wrote:C'est une solution, mais combien d'éditeurs peuvent interpréter une telle ligne placée dans ton fichier pour fixer l'encodage ?
A ma connaissance... aucun, mais suffit de se mettre d'accord c'est absolument pas compliqué
Pour en revenir au problème initial, je n'utilise pas kile, mais emacs n'a absolument aucun problème, en français et en allemand pour ce que j'ai testé, avec les dictionnaires, quel que soit l'encodage du fichier d'entrée à corriger (testé avec UTF-8, iso-latin-1(5)... et ASCII+LaTeX !).
merci pour toutes ces réponses et ce débat passionné!

bon mais j'arrive toujours pas à comprendre ou est ce que je dois configurer le dico ... dans gnome

Merci quand même et si vous avez une idée pour le dico...

Laura
Je voudrai pas dire de bétise, mais kile étant un programme tournant sous kde, il me semble que c'est la config de kde qu'il faut éditer (meme si tu tournes sous gnome).

As tu installé kde ? arrive tu a acceder au centre de config de kde en tapant dans un terminal "kcontrol" ?

Si tu arrives à acceder à kcontrol, edites la config comme précisé dans mon premier message, sinon va falloir attendre du renfort 😉
@+
11 jours plus tard
ok accarien, ca marche merci mille fois!

Dans le centre de config kde j'ai mis le dico en français encodé en utf-8.
Mon fichier tex est codé en iso xxxx-15 et maintenant tout le monde est d'accord!

Merci à tous pour votre aide