Les commandes les plus importantes à connaitre sous Linux : un guide pas à pas pour bien débuter

distro linux

Il existe de nombreuses manières de découvrir et d’apprendre Linux, mais parfois, il peut être difficile de savoir par où commencer. Cet article vise à fournir aux débutants en Linux une introduction aux commandes de base de ce système d’exploitation. En suivant les étapes décrites dans cet article, vous serez en mesure de naviguer et d’utiliser Linux avec une plus grande aisance.

Qu’est-ce que Linux ?

Linux est un système d’exploitation open source développé par Linus Torvalds. Il est disponible sous différentes formes et est compatible avec les ordinateurs personnels, les serveurs et les appareils mobiles. Linux peut être installé sur une machine à partir d’un support de stockage tel qu’un DVD ou une clé USB. Il existe de nombreuses distributions Linux, chacune ayant ses propres fonctionnalités et caractéristiques.

Linux est un système d’exploitation multitâche, ce qui signifie qu’il peut exécuter plusieurs programmes en même temps. Il est également un système d’exploitation multiusager, ce qui signifie que plusieurs utilisateurs peuvent accéder au système en même temps et y exécuter des programmes. Linux offre une excellente sécurité et fiabilité et est souvent utilisé dans les environnements professionnels.

Linux dispose d’un shell, qui est un programme qui permet aux utilisateurs de communiquer avec le système d’exploitation. Le shell est l’interpréteur de commandes, ce qui signifie qu’il prend une commande en entrée et l’exécute. Les shells les plus courants sont Bash, Zsh et Fish.

Pour exécuter une commande, il suffit de la taper au prompt puis de appuyer sur Entrée. Les commandes Linux peuvent être composées de plusieurs mots, chacun ayant une fonction spécifique. Les commandes peuvent également être combinées pour effectuer une tâche plus complexe. Par exemple, la commande ls -l permet de lister le contenu d’un répertoire en affichant les détails de chaque fichier.

Linux dispose également d’une riche collection de logiciels open source. Ces logiciels peuvent être installés à partir des dépôts officiels de votre distribution Linux ou directement à partir du site Web du projet. Les logiciels open source sont généralement gratuits et disposent souvent de documentation détaillée.

Les commandes Linux les plus importantes à connaître sont celles qui vous permettront de naviguer dans le système de fichiers, de manipuler des fichiers et de répertoires, d’exécuter des programmes et de gérer les processus. En apprendre plus sur ces commandes vous aidera à mieux comprendre comment Linux fonctionne et vous permettra d’effectuer des tâches plus complexes avec moins de difficultés.

Comment fonctionne Linux ?


Linux est un système d’exploitation libre et open source, qui peut être installé sur une grande variété de matériel. Il est souvent utilisé par les développeurs et les administrateurs système, car il est facile à utiliser et très configurable. Linux peut également être utilisé comme système d’exploitation principal sur un ordinateur personnel.

Il est construit à partir du noyau Linux, qui a été créé par Linus Torvalds. Le noyau Linux est entouré de logiciels libres et open source, qui fournissent les fonctionnalités nécessaires pour faire fonctionner le système. Ces logiciels sont généralement distribués sous la forme de paquets, qui peuvent être installés sur le système à l’aide du gestionnaire de paquets.

C’est un système d’exploitation très puissant, mais il peut être difficile à utiliser pour les débutants. Cet article présente quelques-unes des commandes Linux les plus importantes à connaître lorsque vous commencez à l’utiliser. Ces commandes vous permettront de naviguer dans le système, de gérer les fichiers et de configurer le système.

La première commande à connaître est la commande ls. La commande ls permet de lister les fichiers et les dossiers dans le répertoire courant. Par exemple, si vous êtes dans le répertoire /home/user/Documents, la commande ls affichera tous les fichiers et dossiers dans ce répertoire. Vous pouvez également utiliser la commande ls pour afficher des informations supplémentaires sur les fichiers et les dossiers, comme leur taille et leur type.

La commande cd est utilisée pour se déplacer dans les différents répertoires du système. Par exemple, si vous voulez vous déplacer du répertoire /home/user/Documents au répertoire /home/user/Pictures, vous pouvez utiliser la commande cd comme suit : cd /home/user/Pictures. Vous pouvez également utiliser la commande cd .. pour vous déplacer au répertoire parent du répertoire courant.

La commande mkdir permet de créer un nouveau dossier dans le répertoire courant. Par exemple, si vous voulez créer un dossier nommé images dans le répertoire /home/user/Documents, vous pouvez utiliser la commande mkdir comme suit : mkdir /home/user/Documents/images.

La commande cp permet de copier des fichiers et des dossiers d’un emplacement à un autre. Par exemple, si vous voulez copier le fichier image1.jpg du répertoire /home/user/Documents vers le répertoire /home/user/Pictures, vous pouvez utiliser la commande cp comme suit : cp /home/user/Documents/image1.jpg /home/user/Pictures/.

La commande mv permet de déplacer des fichiers et des dossiers d’un emplacement à un autre. Par exemple, si vous voulez déplacer le dossier images du répertoire /home/user/Documents vers le répertoire /home/user/Pictures, vous pouvez utiliser la commande mv comme suit :

La distribution Linux


Linux est un système d’exploitation très puissant et flexible, mais peut parfois sembler un peu intimidant pour les nouveaux utilisateurs. Cependant, une fois que vous avez maîtrisé les bases de la ligne de commande, vous serez en mesure de faire beaucoup de choses avec votre système Linux.

Avant de plonger dans les commandes Linux les plus importantes, il est important de comprendre comment fonctionne la ligne de commande. La plupart des systèmes d’exploitation, y compris Windows et macOS, ont une interface graphique qui vous permet d’interagir avec votre ordinateur en utilisant des fenêtres, des boutons et des menus. Linux a également une interface graphique, mais il est également possible d’utiliser votre ordinateur en ligne de commande.

La ligne de commande est un moyen de communiquer directement avec votre ordinateur en tapant des commandes pour lui dire ce que vous voulez qu’il fasse. Cela peut sembler un peu ancien et dépassé, mais la ligne de commande est en fait très puissante et peut vous faire gagner beaucoup de temps une fois que vous avez maîtrisé les bases.



Pour ouvrir la ligne de commande sur votre ordinateur Linux, il suffit d’ouvrir le terminal. Vous pouvez le trouver dans le menu des applications ou en recherchant terminal dans la barre de recherche. Une fois que vous avez ouvert le terminal, vous verrez quelque chose comme ceci :

user@hostname:~$

La partie user@hostname est appelée prompte et indique à quel utilisateur et sur quel hôte vous êtes connecté. Le ~ (tilde) indique votre dossier personnel. La $ (dollar) est le symbole du shell Bash par défaut sur Linux et indique que vous êtes un utilisateur non privilégié. Si vous êtes connecté en tant qu’utilisateur root (l’utilisateur privilégié par défaut sur Linux), le shell Bash affichera # au lieu de $ .

Pour entrer une commande, il suffit de taper la commande que vous souhaitez exécuter et appuyez sur Entrée . Par exemple, pour afficher la date et l’heure actuelles, tapez la date et appuyez sur Entrée . Votre ordinateur affichera alors la date et l’heure actuelles :

user@hostname:~$ date mar 3 avril 2017 12:26:01 CEST user@hostname:~$

Vous pouvez également exécuter plusieurs commandes à la suite en les séparant par un point-virgule ( ; ). Par exemple, pour afficher la date et votre historique des commandes, vous pouvez taper date ; history . Votre ordinateur affichera alors la date actuelle suivie de votre historique des commandes :

user@hostname:~$ date ; history mar 3 avril 2017 12:40:39 CEST 1 date 2 history user@hostname:~$

Maintenant que vous savez comment fonctionne la ligne de commande, passons aux commandes Linux les plus importantes à connaître.

Nous allons vous montrer les 9 commandes Linux les plus importantes à connaître.

1. ls

La première commande à apprendre est ls . ls est utilisé pour lister les fichiers et les dossiers dans un dossier. Par exemple, si vous voulez voir tous les fichiers dans le dossier /etc , vous pouvez utiliser la commande ls comme ceci :

ls /etc

2. cd

La deuxième commande à apprendre est cd . cd est utilisé pour se déplacer dans les différents dossiers du système de fichiers. Par exemple, si vous voulez vous déplacer du dossier /etc au dossier /home/user , vous pouvez utiliser la commande cd comme ceci :

cd /home/user

3. mkdir

La troisième commande à apprendre est mkdir . mkdir est utilisé pour créer de nouveaux dossiers. Par exemple, si vous voulez créer un nouveau dossier appelé test dans le dossier /tmp , vous pouvez utiliser la commande mkdir comme ceci :

mkdir /tmp/test

4. cp

La quatrième commande à apprendre est cp . cp est utilisé pour copier des fichiers et des dossiers. Par exemple, si vous voulez copier le fichier test.txt du dossier /tmp au dossier /home/user , vous pouvez utiliser la commande cp comme ceci :

cp /tmp/test.txt /home/user/test.txt

5. mv

La cinquième commande à apprendre est mv . mv est utilisé pour déplacer ou renommer des fichiers et des dossiers. Par exemple, si vous voulez renommer le fichier test.txt en test2.txt dans le dossier /tmp , vous pouvez utiliser la commande mv comme ceci :

mv /tmp/test.txt /tmp/test2.txt

6. rm

La sixième commande à apprendre est rm . rm est utilisé pour supprimer des fichiers et des dossiers. Par exemple, si vous voulez supprimer le fichier test2.txt du dossier /tmp , vous pouvez utiliser la commande rm comme ceci :

rm /tmp/test2.txt

7 chmod

La septième commande à apprendre chmod permet de modifier les permissions des fichiers et dossiers

8 nano

La huitième commanda à apprendre ouvre un ficher avec l’editeur nano ex: nano monfichier

9 apt-get

La neuvieme commanda est un outil en ligne de commande pour interagir avec la bibliothèque Advanced Package Tool (APT) (un système de gestion de paquets pour les distributions Linux). Il vous permet de rechercher, installer, gérer, mettre à jour et supprimer des logiciels. L’outil ne construit pas de logiciels à partir du code source.

Utiliser les commandes Linux


Les commandes Linux les plus importantes à connaitre

Avec Linux, il existe une multitude de commandes que vous pouvez utiliser. Cependant, certaines d’entre elles sont plus importantes que d’autres et méritent d’être connues. Dans cet article, nous allons vous présenter les commandes Linux les plus importantes à connaître pour bien débuter.

Tout d’abord, la commande « ls » permet de lister le contenu d’un dossier. En tapant « ls -l », vous aurez plus de détails sur chaque fichier et dossier présents dans le dossier en question.

La commande « cd », quant à elle, permet de se déplacer dans les différents dossiers de votre système. Par exemple, si vous voulez vous rendre dans le dossier « Documents », vous tapez « cd Documents ».

La commande « cp » permet de copier un fichier ou un dossier. Par exemple, si vous voulez copier le fichier « test.txt » dans le dossier « Documents », vous tapez « cp test.txt Documents ».

La commande « mv » permet de déplacer un fichier ou un dossier. Elle peut aussi servir à renommer un fichier ou un dossier. Par exemple, si vous voulez déplacer le fichier « test.txt » dans le dossier « Documents », vous tapez « mv test.txt Documents ». Si vous voulez renommer le fichier « test.txt » en « test2.txt », vous tapez « mv test.txt test2.txt ».

La commande « rm » permet de supprimer un fichier ou un dossier. Attention, cette commande est irréversible ! Par exemple, pour supprimer le fichier « test2.txt », vous tapez « rm test2.txt ».

Enfin, la commande « clear » permet de nettoyer l’écran de votre terminal.

Voilà pour les commandes Linux les plus importantes à connaître ! Avec ces quelques commandes, vous êtes déjà bien outillés pour débuter sous Linux !

Il existe de nombreuses commandes Linux, mais certaines sont plus importantes que d’autres, surtout pour les débutants. Ce guide pas à pas vous montrera les commandes les plus importantes à connaître sous Linux, afin que vous puissiez bien débuter.

7 outils de gestion de fichiers journaux Linux

La gestion des fichiers journaux est essentielle pour les applications, les systèmes d’exploitation, les serveurs et tout ce qui concerne les logiciels.

D’un point de vue réaliste, il existe certaines pratiques exemplaires en matière de gestion des dossiers qui sont fondamentales et des outils qui tendent à faciliter le processus tout en devançant les autres. Nous explorerons brièvement dix de ces outils dans cet article.

Multitail

Vous pouvez observer non seulement les fichiers journaux avec Multitail, mais vous avez aussi la possibilité de garder un œil sur les sorties de commandes. Plusieurs fenêtres peuvent être utilisées pour une visualisation simultanée. Si vous devez regarder plusieurs fichiers simultanément, ou si vous avez cherché une telle option, c’est ce qu’il faut faire.

Journalctl

Il s’agit d’un outil plus petit conçu pour être facilement utilisé par les utilisateurs qui se concentrent principalement sur les opérations Linux. Pour l’essentiel, Journalctl affiche des messages de journal qui peuvent être utilisés pour interroger les besoins.

PaperTrail

L’une des options les plus vénérées pour gravir les échelons est sans doute l’agrégateur de journaux Linux de Papertrail. Les journaux peuvent être agrégés ensemble pour une analyse simplifiée de l’infrastructure totale. L’analyse en temps réel est disponible, avec une recherche avancée pour une identification rapide des causes profondes.

Les anomalies inattendues et les erreurs flagrantes peuvent être facilement identifiées grâce aux alertes et à la visualisation. Il n’y a pas mal d’avantages à PaperTrail, et si vous n’avez pas essayé cette solution pour journal Linux, cela vaut vraiment la peine de le faire.

Graylog

Graylog a été spécialement conçu pour une gestion efficace. De nombreuses informations peuvent être collectées et traitées. Le stockage est configuré pour répondre à vos besoins spécifiques. L’interface de recherche pour la lecture des enregistrements de journaux est également de premier ordre.

Nagios

Périodiquement, Nagios évalue les paramètres de base des applications sur différents systèmes. En accord avec les fichiers journaux, l’utilisation de la mémoire et de l’espace sur un disque est mesurable via Nagios. Cette option se distingue par la visibilité de la charge du microprocesseur et l’affichage du processus en cours d’exécution.

Logwatch

Logwatch est construit autour de l’analyse polyvalente des journaux. L’idée est un compte rendu intégré portant sur l’ensemble de l’action du serveur. Les différents journaux de diverses machines peuvent être regroupés dans un seul rapport. Les rapports périodiques déterminés en fonction des besoins des utilisateurs peuvent être automatisés. Enfin, les résultats sont interprétés et présentés sous une forme que les gens réels peuvent lire.

GoAccess

En termes d’exploitation en temps réel, GoAccess est un concurrent de taille pour la gestion des journaux. C’est aussi de l’open source, qui est un grand avantage. Il y a un haut degré d’interactivité, et la configuration est orientée spécifiquement vers Unix et Linux. GoAccess inclut des statistiques rapides en ce qui concerne HTTP, ce qui vous permet d’examiner visuellement et rapidement les rapports du serveur.

Quoi de neuf dans Ubuntu 19.04 « Disco Dingo » !

Ubuntu 19.04 est disponible en téléchargement dès aujourd’hui. Avec Linux 5.0 et GNOME 3.32, Disco Dingo bénéficie d’améliorations des performances et de modifications visuelles. Que vous mettiez à jour ou non, Disco Dingo jette les bases pour les futures versions de support à long terme d’Ubuntu.

Alors, devriez-vous aller sur le site de téléchargement, en prendre une copie et la déployer sur votre ordinateur principal ? Pas nécessairement. Disco Dingo n’est pas une version de support à long terme (LTS). Ubuntu 19.04 ne bénéficiera que de neuf mois de support et de correctifs, tandis qu’Ubuntu 18.04 LTS « Bionic Beaver » est l’environnement de bureau stable et éprouvé pour le moment.

Un bureau GNOME 3.32 plus rapide

Bien sûr, il y a un nouveau fond d’écran. Mais la première chose que vous remarquerez probablement est une nouvelle icône sur le bureau pour votre répertoire personnel. Si vous ne l’aimez pas, vous pouvez installer GNOME Tweaks et l’utiliser pour cacher l’icône du répertoire personnel.

En accord avec le design « flat » moderne, la barre supérieure et le lanceur du bureau ont des fonds noirs pleins. Fini les versions transparentes du 18.10.

Les menus d’application ont été déplacés vers la fenêtre de chaque application. Ils n’apparaissent plus dans la barre d’outils. C’est un changement dans GNOME et non une décision de conception de Canonical. Certaines applications conservaient toujours leurs menus dans leurs propres fenêtres d’application, ce qui rendait l’expérience incohérente. Il y avait aussi des problèmes de longue date qui étaient difficiles à régler. Maintenant, toute cette initiative a été canalisée en faveur d’un placement de menu traditionnel — chaque menu d’application se trouve dans la propre fenêtre de l’application.

Au-delà des changements visuels, GNOME lui-même est plus rapide et utilise moins de ressources GPU grâce au travail effectué par Canonical et l’équipe GNOME en amont.

Nouvelles icônes et modifications visuelles

Le jeu d’icônes Yaru a été rafraîchi et de nouvelles icônes ont été ajoutées pour prendre en charge davantage d’applications tierces. Cet ensemble d’icônes a l’air plus cohérent et plus lisse. Il y a des preuves de l’attention portée à l’interface utilisateur partout. Fichiers a subi une cure de rajeunissement, et il a l’air impeccable et réactif. Ce n’est pas une surprise.

Même la fenêtre du terminal a été polie. L’application Terminal GNOME a une nouvelle barre de titre avec un bouton « Nouvel onglet » et une icône de recherche.

Le menu Système dispose d’une nouvelle icône Réglages à roue dentée qui remplace l’ancienne icône « clé et tournevis croisés ».

Devriez-vous mettre à niveau ou non ?

Il est difficile de présenter un argument convaincant en faveur de la mise à niveau, compte tenu de ce que nous avons vu jusqu’ici. Les améliorations de vitesse sont les bienvenues, mais elles ne sont pas étonnantes. Les modifications visuelles sont bonnes, mais pas étonnantes. Il n’y a pas grand-chose ici de vraiment spécial. C’est ce à quoi on s’attendait. Il s’agit d’une version provisoire, non LTS, et elle offre ce à quoi vous vous attendez. Vous obtenez des corrections de bogues, un logiciel mis à jour, un nouveau noyau, et quelques décorations de bureau.

Si vous attendiez une solution spécifique à un problème qui vous agace, surtout s’il est lié à l’affichage ou aux graphiques, vous pouvez essayer Disco. Si vous voulez les derniers logiciels, allez-y. Mais Ubuntu 18.04 LTS sera supporté pour les années à venir, et la prochaine version LTS sortira dans un an.

Pour être clair, rien n’a été découvert dans les tests qui devrait vous dissuader de mettre à jour. Mais pour un PC utilisant Ubuntu dans une maison familiale — ou n’importe où ailleurs, en fait — la phrase « si ce n’est pas cassé, ne le réparez pas » ne cesse de me revenir à l’esprit.

Top 5 des outils Kali Linux pour du hacking éthique

Kali Linux est un système d’exploitation libre et open source basé sur Linux, conçu pour la criminalistique numérique, les tests de pénétration et l’audit de sécurité. Kali vous permet de tester les brèches de sécurité de votre réseau. Il peut fonctionner en mode natif lors de l’installation sur le disque dur d’un ordinateur, peut être démarré à partir d’un CD live, USB live, ou il peut fonctionner sur une machine virtuelle. Kali Linux contient beaucoup d’outils disponibles pour apprendre et pratiquer.

Dans cet article, nous vous présentons les 5 meilleurs outils Kali Linux qu’un hacker (éthique attention amis black hatters 😉 sur lesquels un chercheur en sécurité peut s’appuyer. 

1. Nmap (Network Mapper)

Abrégé sous le nom de Nmap, le Network Mapper est un outil polyvalent indispensable pour la sécurité réseau, en plus d’être un outil gratuit et open source. Il est largement utilisé par les chercheurs en sécurité et les administrateurs réseau pour la découverte et l’audit de sécurité des réseaux. Les administrateurs système utilisent Nmap pour l’inventaire du réseau, la détermination des ports ouverts, la gestion des calendriers de mise à niveau des services et la surveillance de l’hôte (un terme utilisé pour « l’ordinateur sur un réseau ») ou du temps de disponibilité du service.

2. Metasploit Framework

Cet outil est utilisé pour exploiter (en utilisant la faiblesse du réseau pour faire une « porte dérobée ») les vulnérabilités (points faibles) du réseau. Cet outil est disponible en version gratuite et payante et non open source. La version gratuite est bonne pour les exploitations normales, mais une pénétration profonde nécessite la version payante qui vous offre un ensemble complet de fonctionnalités. La version payante de Metasploit offre des fonctionnalités si importantes qu’elle mérite le prix qu’elle revendique.

3. Wireshark

Certains utilisateurs de Kali Linux peuvent classer Wireshark comme le meilleur outil de test de pénétration Wi-Fi. Wireshark est le premier analyseur de protocole réseau au monde. Il vous permet de voir ce qui se passe sur votre réseau à un niveau microscopique. C’est la norme de pénétration dans de nombreuses industries et établissements d’enseignement. Wireshark est l’un des meilleurs outils d’analyse de réseau [protocole] disponible, sinon le meilleur.

4. Aircrack-Ng

La suite d’outils de piratage Wi-Fi (sans fil) Aircrack est légendaire parce qu’elle est très efficace lorsqu’elle est utilisée entre de bonnes mains. Pour les novices de ce programme de piratage sans fil, Aircrack-ng est un outil de piratage des clés 802.11 WEP et WPA-PSK qui peut récupérer les clés lorsque suffisamment de paquets de données ont été capturés (en mode moniteur).

5. THC Hydra

THC Hydra est classé sous « Jean l’Éventreur » en raison de sa popularité chez ses utilisateurs. Essentiellement THC Hydra est un outil de piratage de connexion réseau rapide et stable qui utilisera un dictionnaire ou des attaques par force brute pour essayer diverses combinaisons de mots de passe et de connexion sur la page de connexion.

Pourquoi les geeks utilisent-ils Linux ?

Dans la vie, il y a de nombreuses raisons pour lesquelles une personne pourrait  accepter une nouvelle idée ou un nouveau mode de vie. La plupart du temps parce que ça lui fait du bien personnellement.

Aujourd’hui, j’apporte quelques raisons particulières pour lesquelles une personne peut choisir d’utiliser Linux :

1) Le plaisir de dire que vous n’utilisez pas Windows

Si quelqu’un peut vous demander de réparer son ordinateur et que vous ne connaissez pas la raison du problème, vous pouvez dire que vous ne connaissez pas Windows et que vous ne pouvez pas le réparer.

Il n’est pas rare de trouver une version pirate de Windows irrécupérable plein de logiciels malveillants et tout le reste, avec des données importantes que l’utilisateur ne veut pas perdre, mais bien sûr, n’a pas fait une simple sauvegarde. Après cette sombre perspective, on ne peut que dire : « Désolé, mon ami, je ne connais pas Windows, je n’utilise que Linux. »

 

2) Le temps que nous pouvons investir pour apprendre l’informatique

Un jour vous apprenez 4 commandes de terminal linux, un autre jour vous apprenez comment accéder au disque, un autre jour vous apprenez comment tuer un processus, et ainsi de suite.

Au fil des années, vous réalisez que vous connaissez beaucoup de choses, vous êtes capable d’installer un serveur web et un serveur de messagerie, vous connaissez les ports et vous savez comment bloquer, débloquer, vous apprenez ce qu’est un pare-feu, et vous pouvez commencer en disant que vous savez comment l’ordinateur fonctionne de l’intérieur.

 

3) Sécurité

Ne perdez pas de temps à installer un antivirus sur Linux, un antispyware ou autre. Notre système favori ne consomme pas de fonctionnalités supplémentaires pour analyser tous les paquets qui transitent par la carte réseau.

Il permet une meilleure utilisation de la bande passante, une meilleure navigation sur Internet et il est exempt de virus donc ici pas besoin d’antivirus. Il y a 6 millions de virus catalogués pour Windows, contre 1 000 pour Linux. Les distributions sont déjà vaccinées. Et quand un virus est libéré pour Linux, quelques heures plus tard, toutes les distributions sont déjà vaccinées.

 

4) Linux est plus ouvert

Cette instruction, qui semble a priori étrange, est expliquée quand on connaît Linux et que l’on connaît les formats de fichiers standard et aussi ceux qui sont libres. Tout d’abord, je me demande pourquoi dans Linux Open Office ouvre tous les fichiers, tels que DOC et Windows DOCX, mais n’ouvre pas ODF Office, qui est un format approuvé par la norme internationale ISO pour les années.

Commencez à voir comment il existe des formats de fichiers libres pour presque tout, des dessins vectoriels, de la musique, des images, des textes, des documents… et tous les formats libres sont incompatibles sous Windows, surtout dans les outils Microsoft, et sont couramment utilisés dans d’autres systèmes d’exploitation et dans une multitude d’outils.

 

Conclusion

Sous Linux, ce dont nous avons besoin est souvent fait via quelques commandes qui se trouvent sur un blog. L’un pour télécharger l’outil et l’autre pour faire le travail que nous voulons. En plus, rien n’est piraté, tout est gratuit. Nous pouvons le laisser sur l’ordinateur paisiblement au cas où vous en auriez besoin à nouveau à l’avenir.

Linux et Windows – Choisir un Hébergement Bon Marché

hebergement web a bas prix

La première étape dans la conception d’un site Web d’entreprise efficace et convaincant est de choisir un bon hébergeur internet. Alors que la plupart des fournisseurs d’accès Internet (FAI) offrent suffisamment d’espace pour un blog ou une page web de type personnelle, l’intégration de multimédia de haute qualité ou d’un magasin de commerce électronique en ligne nécessite beaucoup plus de stockage, ainsi qu’un support dédié compétent.

Mais choisir le bon fournisseur d’hébergement web pas cher (opportunites-digitales.com/hebergement-web-pas-cher/) n’est pas la seule décision critique que les entreprises doivent prendre – elles doivent aussi choisir entre les deux grandes plates-formes disponibles : Windows et Linux.

Quelle est la grande différence ici ?

Pensez à l’hébergement mutualisé Linux ou à l’hébergement web Windows comme étant la base de l’hébergement web ; bien que les deux systèmes offrent les mêmes fonctions de base, leurs formes diffèrent considérablement.

Considérez la fondation d’une maison comme une analogie : Dans le sud de la France, les dalles de béton sont la méthode préférée, tandis que dans les climats nordiques, un sous-sol ou un vide sanitaire est plus commun. En utilisant une dalle, le béton supporte le poids d’une maison ; en utilisant un sous-sol, le bois prend la plus grande partie de la charge. Les deux sont efficaces et atteignent le même résultat, mais avec des méthodes différentes.

Il en va de même avec Linux et Windows.

Ici, la plus grande différence est le système d’exploitation de base (OS). Linux utilise une certaine forme du noyau Linux, qui est typiquement libre et open source. Windows, pendant ce temps, est propriétaire et fourni avec des frais de licence. Vous trouverez une foule d’applications Linux open-source disponibles sur le Web ; l’hébergement Windows a moins d’applications à choisir, mais toutes proviennent de fournisseurs sous licence. Le prix est souvent plus conséquent ici !

Il y a aussi de nombreuses différences mineures – par exemple, tous les fichiers Linux sont sensibles à la casse, mais pas les fichiers Windows. Cela signifie que “Server.exe” et “server.exe” sont des fichiers différents dans un déploiement Linux, mais ils sont les mêmes pour les utilisateurs de Windows. De plus, Linux utilise des panneaux de contrôle comme cPanel ou WHM, tandis que Windows utilise Plesk. Linux est globalement beaucoup plus abordable que des infrastructures sous Windows !

Comment choisir le meilleur hébergeur bon marché

dell linux serversSi les plates-formes d’hébergement Web Windows et Linux offrent sensiblement les mêmes résultats, est-ce vraiment important de savoir quelle plate-forme est la meilleure ici ? Dans certaines circonstances, vous aurez de meilleurs résultats avec l’une et dans d’autres avec l’autre.

Les infrastructures sous Windows sont idéales si votre site internet exécute des solutions spécifiques à Windows, telles que ASP,.NET, Microsoft Access ou Microsoft SQL, car ces technologies ne fonctionneront pas avec Linux.

Si vous préférez utiliser PHP, Perl ou MySQL, Linux est le choix le plus simple pour vous. Il convient également de mentionner que le système d’exploitation actuel d’une entreprise n’a aucune incidence sur la fonctionnalité de son hébergeur. L’exécution de Windows sur des serveurs locaux n’entrave pas le déploiement de Linux, et le fait de compter sur Linux pour les tâches quotidiennes n’interfère pas avec Windows ; les plates-formes d’hébergement sont entièrement fonctionnelles de nos jours.

Les avantages niveaux couts

Linux continue d’être le choix de prédilection des développeurs Web pour des raisons techniques mais aussi financières. C’est l’option la plus abordable a l’heure actuelle clairement. Windows est souvent utilisé pour répondre à des besoins spécifiques. Ces deux options sont populaires sur le marché émergent du cloud, qui est similaire au concept d’hébergement dédié, mais avec des ressources évolutives facturées à l’utilisation.

Windows, par exemple, se prépare à lancer sa technologie Azure Pack basée sur le cloud et a fait appel à plusieurs fournisseurs mondiaux pour tester la solution avant son lancement en janvier 2014. Linux, quant à lui, est le système d’exploitation de choix pour le nouveau moteur de calcul de Google, selon un article récent de ZDNet.

En fin de compte ? Linux existe depuis plus longtemps et propose une gamme plus large de solutions tierces, mais les déploiements Windows peuvent rationaliser le développement et le déploiement des bases de données, grâce à des outils approuvés et sous licence.

 

Gestion des logiciels ( tar.gz, rpm et urpmi )

linux softwares

Sous Linux la plupart des programmes sont livrés sous formes de packages, qui ne sont plus ou moins que des archives. Il en existe de différentes sortes (.tar.gz, .rpm, .deb), certains étant plus utilisés que d’autres suivant la distribution.

Les tar.gz/tar.bz2

REQUIS :

gcc, make, binutils, nasm, g++ : pour compiler
gunzip, bzip2, tar : pour décompresser l’archive

Ce format de package permet souvent d’avoir les sources d’un programme. C’est aussi le format le plus utilisé pour véhiculer des programmes.
Cependant sur un système à base de rpm comme la Mandrake ou La Red Hat je ne puis que déconseiller VIVEMENT l’utilisation de ces packages. Ces packages ne devront être utilisé que si la version équivalente en rpm n’existe pas.
Si le prog vient de sortir, il est d’usage d’attendre en moyenne une semaine avant qu’une version packagée en rpm ne sorte.

Le meilleur moyen de trouver des tar.gz , tar.bz2 est d’aller sur le site, la homepage du programme/projet. Pour cela on fera une recherche sur http://freshmeat.net ou http://www.linuxapps.com.

Le format d’archivage à proprement parler est le tar. Ensuite cette archive est compressée pour prendre moins de place soit par gunzip ( .gz ) ou bzip2 ( .bz2 ).

Pour utiliser l’application, il faut avant tout compiler les sources. Ne vous inquiétez pas, le processus est automatiser, et si tous ce passe bien, cela se fait sans douleur si les packages requis sont présent ( souvent des -devel qui sont des packages de développement ).

Pour compiler les sources il faut au minimum un compilateur ( gcc ), l’utilitaire make, nasm pour les optimisations mmx et les fichiers includes et de devel que le programme va utiliser. D’habitude ces vérifications se font lorsqu’on exécute le fichier configure. Donc prétez attention à ce qui s’affiche. Comme cela défile très vite concentrez sur le mot no : il est souvent synonyme du fait que quelquechose n’a pas été trouvé.

De plus il est souvent conseillé de décompresser l’archive dans le répertoire /tmp ceci afin de ne pas surcharger son répertoire personnel.

Comment installer un prog avec un tar.gz/tar.bz2 ?

Supposons que l’archive que nous devons décompresser se nomme foo-x.y.tar.gz ou foo-x.y.tar.bz2. Voici les différentes étapes qu’il faut suivre pour installer cette archive.

décompresser l’archive :

$> tar -zxvf foo-x.y.tar.gz<- cas d’un tar.gz (je recommande que gunzip/gzip soit installé)
$> tar -jxvf foo-x.y.tar.bz2<- cas d’un tar.bz2 (je recommande que bzip2 soit installé)
$> cd foo-x.y<- on va dans le répertoire crée lors de la décompression souvent le nom de l’archive

Compiler et installer :

$> ls<- on vérifie le contenu
$> ./configure<- si on aperçoit un fichier configure on le lance, regardez les message d’erreurs possibles
$> make<- on démarre la compilation
$> make install <- on install le prog

Note : si il n’y a pas de configure, il se peut qu’un “make” puis “make install” suffisent, ou alors chercher un fichier “setup” ou “install.sh” et le lancer. Cela se fera en tapant :
$> ./setup   <- lance le fichier setup. Sinon lire le fichier README ou INSTALL et suivre les instruction qui s’y trouvent.

Souvent le binaire du programme s’installe dans /usr/local/bin ( recommandé ). Pour forcer l’installation des différents dans /usr/local comme racine, il suffit de passer le prefix durant le configure :
$> ./configure –prefix=/usr/local

Explications :

Comme on peut le voir on fournit des options à la commandes tar. penchons nous un peu sur ces options :
z = le fichier est un tar.gz, donc il va décompresser en utilisant gunzip ou gzip
j = le fichier est un tar.bz2, donc il va décompresser en utilisant bzip2
x = eXtract = extrait l’archive, souvent cré un repertoire du nom de l’archive et y extrait les fichiers
v = Verbose = afficher message d’erreur si il le faut et ce qui se passe (on voit défiler les fichiers extraits)
f = File = spécifie que l’on va agir sur un fichier (tar a l’origine était fait pour les lecteurs de bandes et non pour les fichiers)

Si vous voulez juste lister le contenu d’une archive, il faut taper :

$>  tar -ztf foo-x.y.tar.gz

Il y a d’autres options (création, …) pour cela un “man tar” dans une console ou #tar dans la barre d’url de konqueror.

Comment convertir des tar.gz en rpm ?

En fait il faut passer par un programme nommé alien. Souvent ce programme est déjà inclus sur les CD de votre distribution. Avec kpackage/gnorpm/rpmdrake ou un urpmi alien” vous devriez être en mesure d’installer ce programme très simplement.
La conversion est relativement aisé. Il suffit de récupérer le .tgz (format slackware) ou le tar.gz (format général) et d’appliquer la commande alien comme suit :

$>  alien –to-rpm package.tar.gz

 

Les RPM

what’s this ?

Devant certaines lacunes du format tar.gz (pas de signature pgp, pas de gestion des dépendances, difficultés pour la maintenance), il a été crée par Red Hat un nouveau format d’archive le rpm (Red Hat Package Manager).
Ce format accroit la sécurité (signature pgp), la facilité d’utilisation et la maintenance. Les noms des rpm respectent un format précis de type nom-version.arch.rpm où :
nom  =  nom du package/prog
version  =  version du package/prog
arch  =  architecture pour lequel est fait le prog/package.
En effet Linux existant sur plusieurs architectures, on peut trouver des packages pour PowerPC ( ppc ), Alpha ( alpha ), Intel qui regroupe Pentium/Athlon et Cie (i386, i586, i686).
ix86 définit le niveau d’optimisation du code. Pour simplifier, nous allons plutôt désigner les rpm en ommetant l’architecture. Cela donnera des noms du genre foo-x.y.rpm au lieu de foo-x.y.i686.rpm.

De plus si vous trouvez des rpm du type foo-x.ymdk.i586.rpm, sachez que ce sont des rpms fait normalement spécialement pour la distribution Mandrake. Je ne saurais trop vous conseillezd’installer ces rpm en priorité si vous êtes sous Mandrake !

Comment vérifier qu’un package est installé ?

Pour utiliser les rpms il faut bien que le prog rpm soit installé. Il est forcément installé de base sur un sys à base de rpm (Red Hat, Mandrake).
Rien de telle qu’une petite vérification :

[will@bastard will] rpm -qa | grep rpm
rpm-python-4.0-33mdk
rpmdrake-1.3-59mdk
rpm-devel-4.0-33mdk
grpmi-8.0-9mdk
rpm-4.0-26mdk<- ce qui nous intéresse
rpmtools-2.3-21mdk
urpmi-1.5-34mdk
gnorpm-0.96-1mdk
rpmlint-0.31-1mdk
rpm-build-4.0-33mdk
gurpmi-0.9-34mdk

Nous venons de voir l’une des premières utilité des rpms : la possibilité de vérifier si un package est installé ou non. En effet à chaque installation d’un rpm, le programme rpm écrit dans une base de données ceci afin d’indiquer que le pros a été installé.

Explications :

q = query = interroge la base de données rpm
a = all = liste tous les packages installés
Pour ne pas tout voir défiler, on utilise la commande grep qui ne va donner que les lignes qui contiennent ce que l’on cherche. Ainsi grep rpm donne toutes les lignes qui contiennent rpm. On utilise un tube ( | ) pour transmettre la sortie du rpm -qa à la commande grep.
Pour chercher si un package est installé :

$> rpm -q package<- si on connait de manière précise le nom du package
$> rpm -qa | grep -i motif<- si on cherche un package dont le nom contient motif

Par exemple :

[will@bastard will]$ rpm -q rpm
rpm-4.0-26mdk

 

Comment installer un rpm ?

$> rpm -Uvh foo-x.y.rpm<- install le rpm

Explications :

U = Upgrade = pour une mise a jour, mais convient aussi pour une install
v = verbose = affiche des infos si nécessaires
h = hash =  montre la progression de l’install du package, ce sont les hash que l’on vois : ######
syntaxe :
rpm -Uvh package.rpm  (mis a jour)
rpm -ivh package.rpm   (installation)

Si jamais l’install d’un rpm échoue, souvent c’est due à un pb de dépendance, c’est à dire que le programme que l’on va installer a besoin de d’autres progs, or rpm ne le trouve pas dans sa base données. Souvent cela signifie que le prog n’est pas installé. Alors au choix on essaie d’installer ce progs à partir des CD d’install. Si il n’est pas dessus, on peut essayer de le télécharger sur internet, et là il y a un site qui fait référence : http://rpmfind.net
Pour une question de rapidité, je conseille d’utiliser les mirroirs français : http://fr.rpmfind.net ou http://fr2.rpmfind.net
Sur une Red Hat une solution serait d’utiliser soit gnorpm (semble gérer à peu près les dépendances) ou kpackages.
Sur Mandrake bien que kpackage et gnorpm soit dispos, on utilisera plutôt rpmdrake et urpmi.

Rpmdrake et urpmi permettent très facilement d’installer des packages et ce à partir de plusieurs sources (ftp, cdrom, local, …). rpmdrake n’est qu’un front-end pour urpmi.
Par défaut le sys a configuré déjà 2 sources qui sont celles des 2 CD d’install (en admettant que vous ayez utilisé les 2 CD d’install). Une autre source qu’il serait intéressant d’installer serait celle de cooker mais ce point est abordé ici.

Il peut arriver qu’un rpm ne veuille pas s’installer car il dit qu’il manque quelquechose, mais que l’on soit sûr de l’avoir installé (cas typique ou la lib est installée à partir de tar.gz ce qui fait que la BD de rpm ne le sait pas). Dans ce cas il faut forcer l’installation. Pour cela on va utiliser les options –force –nodeps.
IL NE FAUT UTILISER CES OPTIONS QUE SI L’ON SAIT CE QUE L’ON FAIT.
Cela donne :

$> rpm -Uvh –force –nodeps foo-x.y.rpm

Explications :

–force  = force l’install et ne tient pas compte de possibles erreurs
–nodeps  = ne tient pas compte des pbs de dépendances

 

Comment désinstaller un package ou un programme ?

C’est très simple avec les rpm.

$> rpm -e foo<- désinstall le package foo-x.y.rpm

e = Erase = effacer/enlever/désinstaller

Note : les options –force –nodeps sont aussi reconnues et utilisables au cas où le package serait indispensable a d’autres et que donc il ne veut pas l’enlever.

On peut aussi utiliser kpackage ou gnorpm et surtout rpmdrake/urpme sous Mandrake.

Comment lister le contenu d’un package installé ?

$> rpm -ql foo

q = query = interroge la BD de rpm
l = list = liste le contenu du package

On peut utiliser grep motif pour chercher un motif précis dans la liste des fichiers : rpm -ql foo | grep motif

 

Comment avoir des infos sur un package déjà installé ?

$> rpm -qi foo

i = info = demande d’informations

 

Comment lister le contenu d’un package non installé ?

$> rpm -qpl foo-x.y.rpm

p = package = précise qu’il faut interroger le package donné en paramètre et non la BD de rpm

 

Comment avoir des infos sur un package non installé ?

$> rpm -qpi foo-x.y.rpm

 

Comment avoir les dépendances d’un package non installé ?

$> rpm -qpR foo-x.y.rpm

Bien sûr il y a pleins d’autres options et de possibilités, et rien de mieux qu’un “man rpm” dans une console ou #rpm dans la barre d’url de konqueror pour avoir plus d’infos.

Comment installer des src.rpm ?

Les src.rpm sont des sources livrés sous formes de rpm. Donc il faut compiler le rpm qui va alors créer un package en .rpm (voire même le packages -devel qui correspond).
Note : il faut le package rpmtools et surtout rpm-build
Pour compiler le src.rpm :

$> rpm –rebuild foo-x.y.src.rpm

Ensuite installer les rpm crées :

$> rpm -Uvh /usr/src/RPM/RPMS/i686/foo-x.y.rpm
$> rpm -Uvh /usr/src/RPM/RPMS/i686/foo-devel-x.y.rpm

Note : L’emplacement où se trouvent les rpm peut varier. Pour vérifier il suffit de regarder les dernières lignes qui s’affiche après la compilation. Vous devriez apercevoir une ligne ressemblant à
Wrote: /usr/src/RPM/RPMS/ix86/foo-x.y.rpm
Les packages en -devel sont les packages de développement. Ils contiennent notamment les headers qui seront utiles pour compiler les programmes faisant appel au prog/librairies concernés.

 

urpmi/urpme/urpmf et rpmdrake

Ce sont les outils spécifiques de la Mandrake dont le but est de nous simplifier la vie. Ils permettent de gérer les packages rpms et leurs dépendances et offrent un moyen puissant de gérer les programmes installés sur son postes de travail.

Rpmdrake

Rpmdrake en lui même n’est qu’un front-end pour urpmi/urpmi. Avec rpmdrake on peut chercher un package précis qui serait dispo soit dans l’une des sources configurées (CD d’install, ftp, NFS, …). Les critères de recherches peuvent être le nom du package, un mot clé dans la description, la source, un fichier, etc …
Il permet d’ajouter des packages en prenant en compte les dépendances et cela avec une jolie interface graphique. Je vous conseille de jeter un oeil sur cette démo de Rpmdrake
Via rpmdrake il est aussi possible de faire les mises à jours de sécurité.

urpmi/urpme

Pour ceux qui aiment la rapidité et l’efficacité ->  urpmi/urpme.

$>  urpmi foo<- permet d’installer des rpm d’une sources en tenant compte des dépendances
$>  urpme foo<-  permet de désinstaller un rpm ainsi que ceux qui en dépendent.

urpmi/urpme acceptent les options suivantes (je donne une sélection des plus intéressantes) :
–auto = installe tous les packages requis sans demander confirmation
–force = installe le package et ceux qui en dépendent même si il peut y avoir des problêmes (écrasement de fichier, pb de dep ? – cas très très rare). Cela revient à répondre par l’affirmative à toutes les questions/confirmations qu’il aurait faire.
–allow-nodeps = Permet à urpmi de continuer l’installation et ce même si une dépendance n’est pas satisfaite ( souvent parce que le package n’a pu être installé ou trouvé )
–X = utilise une interface graphique
–provides = installe le package qui fournit ce qui est préciser ensuite en option. Ainsi pour installer le package du kernel sur les dernières mdk : urpmi –provides kernel va fournir la liste des packages fournissant le noyau
-a = installe tous les packages dont le nom correspond
–auto-select = sélectionne automatiquement les packages pour mettre à jour le système. Personnellement je n’ai jamais tenté cette expérience, je pense qu’il vaut mieux upgrader le système en gardant le control de ce que l’on fait c’est-à-dire le faire petit à petit de manière progressive et réfléchie.
–skip nom_package = Utile lorsque l’on fait une mise à jour globale ( –auto-select ) car il permet de préciser au coup par coup un package qu’il ne faut pas toucher ( à partir de la Mandrake 9.2 ).
–keep = Permet de dire à urpmi de ne pas désinstaller de packages et de ne faire que des mises à jours ( à partir de la Mandrake 9.2 ).
–no-verify-rpm = Permet de dire à urpmi de ne pas vérifier la signature gpg des packages. Utile lorsque vous installer des packages contrib ( à partir de la mdk 9.2 )

Dans /etc/urpmi/skip.list on peut préciser la liste des packages que l’on ne veut pas que urpmi touche.

urpmf

L’autre programme intéressant s’apelle urpmf. Il permet de trouver quel package contient un fichier précis : très utile quand un rpm ne veut pas s’installer car il manque un fichier.
Le fonctionnement est enfantin :

$> urpmf fichier

Il dit alors quel package contient/fournit le fichier. Ensuite il ne reste plus qu’a installer le package avec rpm ou urpmi.
Penchons plus longuement sur les possibilités de recherches qu’offre urpmf au travers des options qu’il accepte :
–summary = donne les packages dont le résumé contient contient le mot passé en argument
–description = donne les packages dont la desciption contient contient le mot passé en argument
Etant donné que la réponse peut être longue, il est conseillé de combiner cette commande avec more en utilisant un tube ( | ), de cette façon vous pourrez consulter tranquille les résultats si ils sont nombreux :

$>  urpmf –summary ftp | more<- on cherche tous les packages ayant un rapport le protocol ftp ( serveur ftp, client ftp) 
$>  urpmf –summary mp3<- tous les packages dont la description contient mp3 et qui sont donc en relation avec le mp3

urpmf –summary et urpmf –description ne sont pas la panacée pour trouver un package sur un sujet précis. Ainsi alors que xmms est le lecteur de mp3 le plus connu sous Linux ( clone de winamp ), il n’apparait pas dans les résultats ! Donc je ne saurais trop conseiller de parcourir la liste des packages dans rpmdrake ou d’aller sur les sites qui recensent les applications sous linux.

Il existe encore pleins d’autres options pour urpmf :
–provides = cherche dans les provides ( i.e les packages qui disent fournir quelquechose )
–requires = cherche dans les requires ( i.e listera les packages en ayant besoin )
–conflicts = cherche tous ceux qui entrent en conflit

urpmq

Pour savoir si vous avez un package (installé ou disponible dans une de vos sources de packages configurées), il suffit d’utiliser urpmq :

$> urpmq -gr package

Pour connaitres les dépendances d’un package :

$> urpmq -d package

Bien sûr on peut combiner avec -g ( affiche le groupe du package ) et -r ( affiche le numéro de version du package ) :

$> urpmq -dgr package

urpmi.addmedia

Cette commande permet d’ajouter des sources pour urpmi/rpmdrake. Les sources sont des emplacements où urpmi/rpmdrake vont aller chercher les rpms. Ces sources peuvent être locales ( disque durs ), amovible ( CDROM/DVD/ZIP/… ), distante ( ftp, rsync, nfs ). On les ajoutes avec urpmi.addmedia et on les enlèves avec … urpmi.removemedia.
On précise donc le nom de la source ( celui-ci doit être unique ( i.e 2 sources ne peuvent porter le même nom ), le protocol ( file pour un répertoire sur un disque local ou NFS, ftp pour un serveur ftp, http pour un serveur web, removable pour les média amovibles à savoir CDROM/ZIP/…
Éventuellement on peut préciser à urpmi.addmedia le fichier hdlist et ce en mettant son chemin relatif par rapport au répertoire qui contient les sources. Ce fichier contient la liste des rpms de la sources, les informations sur les différents packages et les relations de dépendances entre eux. Si le hdlist n’est pas précisé, urpmi.addmedia essaiera d’en faire un.

Imaginons que vous ayez un répertoire où vous ayez stocké des rpms et que vous vouliez qu’ils soient disponible lorsque vous installerez un package avec urpmi/rpmdrake, il vous suffit de taer la commande suivante :

$>  urpmi.addmedia mesrpms file:///path/vers/mes/rpms<- on ajoute une source nommée mesrpms pour laquelle les rpms se trouvent dans le répertoire /path/vers/mes/rpms

Prenons le cas de rpms se trouvant sur un serveur ftp et dont le hdlist est fournit ( il se nomme hdlist.cz et se trouve dans le répertoire précédent celui où se trouvent les rpms ), à ce moment là on fera ceci :

$>  urpmi.addmedia mesrpmsftp ftp://ftp.monserveur.com/path/vers/rpms with ../hdlist.cz

D’autres informations sont disponibles sur le site officiel d’urpmi à savoir http://www.urpmi.org

Note : Pour ajouter des média intéressants pour la Mandrake comme plf ( bcp packages multimédia comme support DVD cryptés, wma, rip de DVD, codecs windows, quicktime ), Texstar ( nouvelles versions de KDE, Gnome backportées de cooker vers la dernières version stable de la distribution ), je vous recommande vivement Easy urpmi qui vous permettra de choisir les mirroirs pour les différentes sources et vous donnera les lignes à taper.

+ Ajoutons une source plf pour mdk 9.1 et ce avec le miroir ftp de club internet :

$> urpmi.addmedia plf ftp://ftp.club-internet.fr/pub/linux/plf/mandrake/9.1 with hdlist.cz

+ Ajoutons une source contrib pour une mdk 9.1 via le site ftp de free.fr ( proxad.net ) :

$> urpmi.addmedia contrib ftp://ftp.proxad.net/pub/Distributions_Linux/Mandrake/9.1/contrib/i586 with ../../i586/Mandrake/base/hdlist2.cz

+ maintenant une source texstar pour la mdk 9.1 sur le miroir de ibiblio.org :

$> urpmi.addmedia texstar ftp://ftp.ibiblio.org/pub/Linux/distributions/contrib/texstar/mandrake/9.1/rpms with hdlist.cz

+ Pour refaire les sources de vos CD d’installations ( utile si vous les avez effacer par inadvertance ou que vous avez eu des CD en plus après coup ). On suppose que le CD1 d’installation est dans /mnt/cdrom :

$> urpmi.addmedia –distrib cd removable://mnt/cdrom/

Ce site est une référence si vous voulez apprendre à utiliser rpmdrake/urpmi : http://www.zebulon.org.uk/urpmi_fr.html

Google et Kubernetes : changement d’image de marque et expansion de sa plate-forme Cloud.

Google et Kubernetes

Google a annoncé mercredi le changement de marque et l’expansion de sa plate-forme Cloud Launcher. À l’avenir, il sera connu sous le nom de “Google Cloud Platform Marketplace”, ou “GCP Marketplace”. Il offrira des applications commerciales “Kubernetes” prêtes à la production, promettant un déploiement simplifié, une facturation et des licences de tiers. L’objectif de Google est de rendre les conteneurs accessibles à tous, en particulier aux entreprises, selon Anil Dhawan, chef de produit pour la plate-forme Google Cloud Platform.

Lorsque Google a publié Kubernetes en tant qu’open source, l’un des premiers défis auxquels l’industrie s’est attaquée était la gestion, a-t-il dit.

Le moteur Kubernetes hébergé par Google s’occupe de l’orchestration et de la gestion des conteneurs. Un plus grand défi pour faire tourner des applications sur un cluster Kubernetes peut être un processus manuel qui prend beaucoup de temps. GCP Marketplace fournit des applications préemballées et les déploie sur n’importe quel cluster, a noté M. Dhawan.

Plus d’informations sur ce choix

En fin de compte, le changement de marque de la plate-forme de nuages d’entreprise de Google devrait faciliter la vie des personnes qui gèrent les environnements de conteneurs, a déclaré M. King. Ce sera le cas surtout s’ils étudient ou envisagent d’acheter et de déployer des applications.

La démarche marketing de Google pourrait être importante pour l’avenir des stratégies hybrides et multicloud, a déclaré Glen Kosaka, vice-président des produits de la société de sécurité NeuVector de Kubernetes.

De plus, les développeurs ont maintenant accès à des applications qui peuvent booster leurs propres applications sans avoir à se soucier du déploiement de la production et des problèmes de mise à l’échelle, a noté Kosaka.

Cela devrait être une grosse affaire pour beaucoup de développeurs, a-t-il ajouté.

“La gestion des conteneurs des applications du marché est maintenant simplifiée, et les clients – ceux qui sont responsables de la gestion des conteneurs – ont la certitude que ces applications Google Marketplace sont testées et compatibles avec leur infrastructure de cloud computing “, a déclaré Kosaka.

Nombre de comptes de vue plus large

the google cloud platformSi l’on considère les nouvelles dans un sens strict et étroit, l’action de Google semble n’être guère plus qu’un “rebranding” avec un nom plus clair et plus descriptif. C’est une décision assez raisonnable, a suggéré Alex Gounares, PDG de Polyverse.

D’une part, la nouvelle plate-forme de Google signifie des changements pour les développeurs. Dans les premières années de l’Internet, vous deviez construire vos propres centres de données, et construire et gérer vos propres applications. En effet, tout était construit à la main, sur place et coûteux, explique Gounares.

Puis Salesforce.com est arrivé, et la révolution du Software as a Service est née. Les mêmes applications pourraient être exécutées dans le nuage et diffusées par l’intermédiaire d’une page Web.

Cela a conduit à Amazon Web Services et à d’autres fournisseurs de services cloud permettant aux gens de louer un centre de données à la demande – la révolution de l’Infrastructure as a Service.

Pour le développeur d’application, l’acquisition physique du *matériel* est devenue triviale, mais d’un point de vue logiciel, tout mettre en place, configurer et faire tourner était aussi compliqué que de faire tourner les choses sur place, a dit M. Gounares.

L’intéret des développeurs

Les conteneurs ont révolutionné cela. Maintenant, toute la complexité de quelque chose comme une base de données ou un système de gestion de contenu ou un logiciel similaire peut être empaqueté dans une petite boîte propre, selon Gounares.

Cette boîte peut coexister avec toutes les autres pièces nécessaires à une solution complète. La configuration et la gestion qui prenait des jours ou des semaines à accomplir aujourd’hui peuvent se faire en une seule ligne de commande.

Facteurs de déploiement

L’un des grands avantages des conteneurs est leur portabilité dans tous les environnements. Les utilisateurs peuvent développer leur contenu et déplacer leurs charges de travail dans n’importe quel environnement de production, a noté M. Dhawan de Google.

Google travaille avec des groupes d’intérêt spéciaux open source, ou SIGs, pour créer des standards pour les applications Kubernetes. Ceci apporte l’expertise de la communauté open source à l’entreprise.

La plate-forme cloud améliorée de Google accélère le déploiement sur les clusters Kubernetes, le moteur Kubernetes, les serveurs sur site ou d’autres nuages publics. Une fenêtre Marketplace s’affiche directement dans la console du moteur Kubernetes. Ce processus implique de cliquer-déployer et de spécifier l’emplacement.

Les partenaires tiers développent des applications commerciales Kubernetes, qui sont accompagnées d’un support et d’une facturation basée sur l’utilisation de nombreux paramètres, tels que les appels API, le nombre d’hôtes et le stockage par mois.

Google utilise une utilisation simplifiée de la licence et offre plus d’options de consommation. Par exemple, les frais d’utilisation des applications sont consolidés et facturés par GCP, quel que soit l’endroit où elles sont déployées. Cependant, selon Dhawan, les ressources non liées aux BPC sur lesquelles ils fonctionnent ne sont pas incluses.

A suivre…

Comment optimiser Linux pour les SSDs

linux for ssds

Tirez le meilleur parti de votre SSD sous Linux – voici ce que vous devez savoir.

Linux est assez bon prêt sortit de la boite, il y a encore quelques points particuliers qui nécessitent un peu d’optimisation manuelle pour qu’ils fonctionnent aussi bien que possible. Le contrôle de la consommation d’énergie est le problème le plus courant, mais l’optimisation de votre système pour les SSD est un autre élément important. Et c’est important de le faire, parce que les SSD bien entretenus sont un atout de taille dans votre arsenal.

Pour obtenir les meilleures performances et le moins d’usure de votre disque dur, essayez ces optimisations pour votre système Linux.

Mettez à jour votre distribution

Bien que je ne pense pas que ce sera un problème pour la plupart des gens, cela vaut quand même la peine d’être mentionné. Afin de profiter des dernières optimisations dans les applications, le noyau, le système de fichiers et bien plus encore, il est préférable d’exécuter la dernière version de votre distribution préférée.

Si même si vous êtes sur des versions plus anciennes mais toujours supportées (comme Ubuntu 12.04), il est préférable de mettre à jour vers la dernière version (comme 14.04) car il y a eu une tonne de changements qui rendent le système d’exploitation beaucoup plus convivial pour les SSD.

Mettre à jour le firmware SSD

C’est aussi une bonne idée de mettre à jour le firmware de votre SSD. Les instructions sur la façon de procéder sont différentes pour chaque fournisseur, vous devrez donc consulter les instructions pour votre SSD spécifique. Sachez que certains (mais pas tous) ne permettent pas la mise à jour du firmware via Linux ; au lieu de cela, vous devrez utiliser un environnement bootable spécifique (similaire à un environnement Linux live) ou un utilitaire Windows pour faire le travail.

Utiliser ext4

Lorsque vous venez d’installer un système Linux, il est préférable d’utiliser le système de fichiers ext4. C’est le système de fichiers le plus utilisé et le plus stable disponible qui supporte TRIM (qui doit encore être activé – plus d’informations ci-dessous).

Cela ne devrait pas poser de problème : la plupart des distributions sont par défaut à ext4.

Options de montage au démarrage

linux distribution installationChaque fois que vous démarrez votre système Linux, il doit monter les différents lecteurs dans votre ordinateur afin de les utiliser. Il existe différentes options de montage que vous pouvez utiliser, en fonction de votre matériel et de vos besoins, et certaines sont appropriées à utiliser avec les SSD.

Pour faire ces changements, ouvrez votre terminal et exécutez la commande sudo nano /etc/fstab. Ensuite, trouvez la (les) partition(s) dans votre (vos) SSD qui sont listées dans ce fichier. Les partitions sont normalement listées par UUID, ce qui est plus précis que le système d’identification /dev/sdXY. Si vous avez plusieurs partitions, vous pouvez utiliser la commande blkid /dev/sdXY pour trouver l’UUID, remplaçant X par a-z et Y par 1-9.

Ensuite, ajoutez les options de montage suivantes : discard et noatime. Discard permet d’utiliser la fonction TRIM du SSD, ce qui améliore les performances et la longévité. L’autre option, noatime, indique au système de fichiers de ne pas garder la trace des derniers temps d’accès – juste les derniers temps modifiés. Cela peut réduire l’usure de votre SSD, parce qu’il y a beaucoup de fichiers auxquels vous accédez lorsque vous utilisez votre ordinateur, mais il y a beaucoup moins de fichiers que vous finirez par modifier. Le fichier doit ressembler à la capture d’écran ci-dessus.

Si vous constatez que certains programmes se comportent mal avec l’option noatime (car les derniers temps d’accès seront avant les derniers temps modifiés, ce qui est normalement impossible), vous pouvez remplacer noatime par relatime. Ceci met à jour le dernier temps d’accès avec la même valeur que le dernier temps modifié, le tout dans la même opération d’écriture.

Ne pas utiliser SWAP

Lorsque vous utilisez un SSD, c’est aussi une très bonne idée de ne pas avoir une partition SWAP dessus (à moins que vous n’ayez une raison sérieuse de le faire).

Le simple fait de lire et écrire les partitions SWAP ajoute une usure significative au SSD. Si vous souhaitez vraiment avoir une partition SWAP, il serait préférable de la placer sur un disque dur secondaire, non-SSD si possible. Je sais qu’il est tentant de mettre une partition SWAP sur un SSD – ce serait la partition SWAP la plus performante que vous n’ayez jamais eue – mais cette vitesse a un coût majeur.

Beaucoup de gens suggèrent que vous pouvez toujours ajouter une partition SWAP mais désactiver l’hibernation, car cela provoque des quantités extrêmes de lectures et d’écritures. Mais comme il est rare que vous utilisiez une partition SWAP, car vous avez probablement plus qu’assez de RAM, cela ne fera qu’occuper de l’espace et causera potentiellement de l’usure. De plus, ne pas inclure une partition SWAP pour commencer est un moyen facile de désactiver l’hibernation.

Conclusion

Ces conseils devraient vous permettre de progresser vers une expérience SSD beaucoup plus optimisée sous Linux. Et votre SSD vous remerciera en durant quelques années de plus qu’il ne le ferait sans ces optimisations. Si vous vous sentez chanceux, vous pouvez rechercher encore plus d’optimisations liées au SSD qui peuvent ne pas convenir aux personnes au cœur fragile. C’est à vous de décider, mais ces conseils font le plus de bien à votre SSD.

Installation Drivers Nvidia

nvidia

Le but de cet HOWTO est d’aider à installer les drivers nvidia sous Mandrake 9.x. J’ai essayé de donner la méthode la plus propre qu’il soit pour que cela se passe sans encombres et ce en détaillant le plus possible.
Les commandes doivent être fait en tant que root ( super-utilisateur ).

Information :
Certains pourraient se demander : “Pourquoi est-ce si compliqué pour installer les pilotes NVIDIA sous linux ?”.
La réponse est complexe :
– Normalement les pilotes graphiques sont directement intégrés à XFree ( XFree est le composant qui gère de manière hardware la carte graphique, l’écran, la souris et le clavier ).
Cependant dans le cas des pilotes nvidia c’est plus compliqué, il y a 2 versions : une version libre qui n’a pas le support 3D mais est inclus dans XFree ( nv ) et une version non libre ( closed source ) récupérable sur le site de nvidia mais non inclus dans XFree ( nvidia ).
L’existence de cette version non libre est due au fait que nvidia ne pouvait/voulait faire une version OpenSource de ses pilotes à cause de problèmes de brevet concernant la partie 3D, notamment la partie openGL ( SGI détient le brevet ).

– une distribution comme Mandrake ne peut inclure les pilotes nvidia dans la version librement téléchargeable ( GPL ) car pour tous les logiciels inclus dans la version téléchargeable, il faut que les sources soient disponibles ( OpenSource ), or les pilotes NVIDIA n’étant pas Open source, ils ne peuvent être inclus. Si vous achetez la Mandrake, les pilotes seront inclus dans la version commerciale et aussi pour ceux ayant souscrit au Mandrake Club et l’installation sera grandement simplifié, voire même automatique.

– Enfin les pilotes NVIDIA intègrent des extensions spécifiques qui font qu’il ne peut se contenter des interfaces standards du noyau linux et donc il faut les compiler pour le noyau qui va être utilisé. De plus Linus Thorvalds ( le créateur de Linux ) ne voulant pas favoriser l’apparation de modules/drivers closed source, fait qu’il devient problématique d’utiliser un pilote sur un noyau autre que celui pour lequel il a été compilé

Installation

Préparation

REQUIS :
binutils, gcc, ed, kernel-source, glibc-devel

ed, kernel-source, glibc-devel se trouvent sur les CD de la distribution et peuvent être installé via urpmi/rpmdrake.
Vous devez installer la version de kernel-source qui correspond au noyau que vous utiliser !

Installation des sources du noyau ( kernel-source )

on installe ed,binutils et kernel-source. glibc-devel est installé automatiquement lorsque l’on installe kernel-source

# urpmi binutils ed kernel-source

vérification de l’installation des sources du noyau

on vérifie la version de kernel-source, par exemple on peut avoir comme résultat kernel-source-2.4.22-26mdk. ceci signifie que ce sont les sources pour le noyau 2.4.22-16mdk

# rpm -qa | grep kernel-source

vérification de la version du noyau

on vérifie la version du noyau que l’on utilise. Celle-ci doit correspondre à celle du package kernel-source. Par exemple cela devrait donner dans mon cas 2.4.22-26mdk

# uname -r

Note :
Si votre noyau est plus ancien que la version des kernel-source que vous avez, cela signifie que vous avez installé la dernière version des kernel-source de votre distribution et qu’un nouveau noyau est disponible. Ceci arrive si vous avez configuré votre système pour récupérer les mises à jour de sécurité et corrections de bogues via internet. Pour récupérer la dernière version du noyau, il vous suffit alors de l’installer via urpmi.

Pour cela vous tapez soit :# urpmi -p kernelqui vous donnera une liste des noyaux disponible, ou alors pour être sûr, vous taper directement le nom entier du noyau que vous voulez :# urpmi kernel-2.4.22-26mdkPour toujours utiliser la dernière version disponibles des noyaux pour votre système, mettez à jour vos sources updates :
# urpmi.update -aPuis récupérez les dernières version de votre noyau et de kernel-source avec urpmi. Ensuite vous mettez à jour lilo ( si vous l’utiliser ) afin de pouvoir démarrer sur le bon noyau :# /sbin/liloEt vous redémarrez en sélectionnant le bon noyau ( normalement linux devraient point vers le nouveau noyau, mais au pire vous pouvez sélectionner par exemple 2422-26 ). Une fois que vous avez fini de redémarrer, vous pouvez vérifier que c’est correcte avec la commande uname.

1°/ Récupération des drivers :

Télécharger les drivers nvidia sur le site de nvidia. Vous sélectionnez “Graphics Driver” puis “GeForce and TNT2” et enfin “Linux IA32” ( IA32 = Intel Architecture 32 bits, soit les processeurs Intel/AMD/Ciryx/Via 32 bits ). Si vous avez une connexion internet, vous pouvez procéder comme cela en console :

# urpmi wget‹— on install wget qui va nous permettre de télécharger les drivers
# cd /tmp‹— on va télécharger les drivers dans le répertoire /tmp
# wget http://download.nvidia.com/XFree86/Linux-x86/1.0-6111/NVIDIA-Linux-x86-1.0-6111-pkg1.run

2°/ Installation des librairies requises [ obsolète ] :

Note :A partir de la Mandrake 9.2, cette manipulation est inutile et est même déconseillée !!! Les librairies Mesa sont désormais livrés par défaut avec le serveur graphique X.

Il faut installer les librairies Mesa pour le support OpenGL. Pour cela il faut installer les packages libMesaGL1, libMesaGLU1 ( anciennement nommée Mesa-common ) :

# urpmi libMesaGL1 libMesaGLU1

3°/ Installation des drivers :

Arrêt de l’interface graphique

Tout d’abord le mieux est de quiter l’interface graphique, pour cela vous vous délogguez, ensuite vous basculer dans une console ( CTRL+ALT+F1 ), vous vous connectez en tant que root et vous tapez :

# service dm stop‹— permet d’arréter votre gestionnaire de connection ( gdm/kdm/mdkdm/xdm ) et d’arréter XFree

Installation du pilote

On lance le script d’installation qui se trouve dans /tmp

# sh /tmp/NVIDIA-Linux-x86-1.0-6111-pkg1.run

Note 1 : Lorsque vous tapez une commande faites attention à la casse ( respect majuscule/minuscule ). Un bon moyen pour éviter de faire de erreur est d’utiliser la touche TAB pour compléter automatiquement le nom du fichier. Souvent on tape les 3 premières lettre et ensuite on appuies sur TAB.

Note 2 : Si le driver ne dispose pas d’un module précompilé pour votre noyau alors il va essayer d’en compiler un : c’est pourquoi j’ai mis gcc, kernel-source et glibc-devel dans les requis. Cela devrait se passer normalement de manière transparente pour vous.

Note 3 : Si vous avez un message d’erreur concernant le support de rivafb activé et incompatible, vous pouvez l’ignorer. En effet bien que le support de rivafb soit activé dans le noyau, le module n’est pas chargé par défaut, donc il n’y a pas de problème. Si vous voulez vous en assurez, vous pouvez ajouter la ligne suivantes dans le fichier /etc/modprobe.conf ( noyau 2.6 ) ou /etc/modules.conf ( noyau 2.4) : alias rivafb off
Cette ligne empéchera le chargement du module rivafb.

Configuration du serveur graphique ( XFree/Xorg )

Chargement du pilote

Si tout s’est correctement déroulé, Il ne reste plus qu’a configurer XFree pour qu’il prennent en compte ces nouveaux drivers
Il faut d’abord vérifier si les modules sont configurés correctement. Pour cela on va vérifié que le chargement du pilote est configuré dans le fichier de configuration qui contient la liste des pilotes à charger au démarrage.
Sous le noyau 2.4, c’est le fichier /etc/modules.conf, sous le noyau 2.6 c’est le fichier /etc/modprobe.conf :

# grep -i nvidia /etc/modprobe.conf

Vous devriez obtenir la ligne suivante :

alias /dev/nvidia* nvidia

Si elle n’y est pas rajouter la à la fin du fichier /etc/modules.conf ( pour un noyau 2.4 ) ou /etc/modprobe.conf ( noyau 2.6 ). :

# echo “alias /dev/nvidia* nvidia” >> /etc/modules.conf‹— pour un noyau 2.4
# echo “alias /dev/nvidia* nvidia” >> /etc/modprobe.conf‹— pour un noyau 2.6

Note :Une autre solution pour s’assurer que le pilote sera chargé au démarrage est d’ajouter nvidia dans le fichier /etc/modules ( pour un noyau 2.4 ), ou /etc/modprobe.preload pour un noyau 2.6

Activation 3D/support OpenGL

Maintenant il faut modifier le fichier de configuration de XFree à savoir le fichier /etc/X11/XF86Config-4
Dans la section Module , ajouter Load “glx” . Cela devrait donner quelquechose comme cela :

Section “Module”
# This loads the DBE extension module.
Load “dbe”
Load “glx”
# This loads the miscellaneous extensions module, and disables
# initialisation of the XFree86-DGA extension within that module.
SubSection “extmod”
#Option “omit xfree86-dga”
EndSubSection
# This loads the Type1 and FreeType font modules
Load “type1”
Load “freetype”
EndSection

Note : Si vous avez les lignes Load “dri” et Load “GLcore” , vous devez les enlever.

Note 2 : Sous la Mandrake 10.1 avec le passage à Xorg, il faut modifier le fichier /etc/X11/XF86Config ou /etc/X11/xorg.conf

Note 3 : Vous pouvez ajouter la ligne Load “v4l” pour avoir des optimisations matérielles concernant la vidéo. Cependant cette option devra être désactivé si vous revenez aux drivers livré par défaut avec XFree

Activation du pilote

Ensuite remplacer dans la section Devices le driver nv par celui de nvidia nommé nvidia
Vous devrier avoir quelquechose d’approchant :

Section “Device”
Identifier “NVIDIA GeForce 256 (generic)”
VendorName “Unknown”
BoardName “Unknown”
Driver “nvidia”
# VideoRam 4096
# Clock lines
# Uncomment following option if you see a big white block
# instead of the cursor!
# Option “sw_cursor”
Option “DPMS” “on”
EndSection

Vérifications

Chargement de l’interface graphique

Maintenant croisons les doigts et vérifions si tous s’est déroulé sans problême. Tout d’abord il faut relancer le serveur X pour que les changements prennent effet. Il est inutile de rebooter.

# service dm start

Normalement X devrait s’afficher de nouveau normalement.
Si vous vous logguer en mode console, quittez votre session, puis relancer X avec startx.
Il se peut que vous notiez un décalage de votre affichage et que vos polices sont devenus plus grosses. Ceci est due au fait que les drivers n’ont pas un support DCC ( Display Data Channel ) parfait.

Vérification du support OpenGL

Vérifier si le support OpenGL est bien chargé en tapant :

# xdpyinfo | grep GLX

Vous devriez obtenir à peu près cela :

GLX
NV-GLX

Une autre commande pour le vérifier est la suivante :

# glxinfo

Vous devriez obtenir pleins d’informations sur le drivers OpenGL et notamment les différentes extensions supportées.

Vérification que le pilote est bien chargé

Vérifer que le module est bien chargé et ce gràce à la commande lsmod ( list modules ) qui permet de voir la liste des pilotes/modules chargés :

# lsmod | grep nvidia

Si vous passez tous les tests alors vous êtes prêts pour la 3D accélérée sous Linux. Des jeux sont disponibles parmis lesquels Unreal Tournament, UT2003, Quake 3 Arena, Tribes 2, Descent 3, Kohan, Civilisation, NeverWinter Nights … .
Un jeu sympa que je recommande pour passer le temps : chromium.
C’est un shoot’em up en 3D avec des graphiques sympas, supporte le plein écran, mode fenêtre, du 640×480 au 1280×960, les CD audio ou une playlist de mp3, etc…
Il est dispo sur Mandrake 8.x, il suffit d’installer chromium et chromium-setup, puis de lancer chromium-setup pour configurer le jeu et chromium pour lancer le jeu.

# urpmi chromium
# urpmi chromium-setup
# chromium-setup
# chromium

Troubleshootings ( en cas de problèmes )

Si par vous n’arrivez plus à relancer votre serveur X, ne vous inquietez pas. Tout d’abord faites une copie du fichier de log de XFree ( /var/log/XFree86.0.log ), en analysant ce fichier vous pourrer éventuellement trouver la cause la problême. Pour voir son contenu il faut être root. Vous pouvez commencer par copier le fichier dans un répertoire temporaire plus facil d’accès :

# cp /var/log/XFree86.0.log /tmp

Note : Sous la Mandrake 10.1 et ce depuis le passage à Xorg, le fichier de log du serveur graphique se nomme Xorg.0.log et non plus XFree86.0.log.

Ensuite éditer le fichier de configuration de XFree et remplacez dans la section Devices Driver “nvidia” par Driver “nv” ce qui vous permet de remettre l’ancien drivers de XFree.
Ensuite relancer XFree en tapant startx dans la console. Si vous vous logguiez avec kdm/gdm, il faut faudra d’abord basculer sur console pour faire tout cela. Pour cela appuyer en même sur CTRL+ALT+F1 pour basculer sur la première console.
Il existe plusieurs éditeurs de texte qui permettent de modifier des fichiers en mode console, il y a par exemple : vi, emacs, vim, joe, pico, nano, etc …

Lorsque vous êtes a nouveau sous X, ouvrez la copie du fichier de log de XFree que nous avons faites dans un éditeur de texte. Cette copie se trouve normalement dans le répertoire /tmp si vous avez suivi les instructions précédentes : /tmp/XFree86.0.log
Les lignes les plus intéressantes sont les lignes qui commencent par (EE) car elles indiquent qu’il y a eu une erreur lors du chargement de ce paramêtre.

1°/ Toutes les résolutions sont rejetées !

Si par exemple vous remarquez que XFree à refuser toutes vos résolutions d’affichage, alors qu’elles sont correctes avec le drivers de base de XFree, alors le problême vient du support DDC des drivers nvidia. Pour y remédier il suffit de le désactiver en ajoutant dans la section Devices : Option “NoDDC” “true”. Cela donne à peu près :

Section “Device”
Identifier “NVIDIA GeForce 256 (generic)”
VendorName “Unknown”
BoardName “Unknown”
Driver “nvidia”
# VideoRam 4096
# Clock lines
# Uncomment following option if you see a big white block
# instead of the cursor!
# Option “sw_cursor”
Option “DPMS” “on”
Option “NoDDC” “true”
EndSection

Il ne vous reste plus qu’a relancer et X pour voir si X se lance cette fois-ci avec les drivers nvidia. Normalement ca devrait passer. Croisez les doigts.

2°/ Mon système est instable depuis que j’ai installé les drivers nvidia. Notamment il freeze complètement !

Si au cours de vos utilisations vous remarquez que votre système est instable et ce depuis que vous avez mis les drivers nvidia, il serait bon alors de vous penchez vers le support AGP. Par défaut les drivers nvidia utilisent leurs propres drivers pour l’AGP.
Une bonne solution pour remédier aux problêmes d’instabilités est d’utiliser alors le drivers du kernel agpgart ou alors en dernier recours de désactiver l’AGP.
Tout d’abord il faut que le support AGP soit activé dans votre noyau ( section Character Devices ) et cela pour /dev/agpgart et votre chipset de carte mère. Pour le vérifier rapidement faites :

# grep -i AGP /usr/src/linux/.config

Note : Sous Mandrakelinux, un fichier config est placé aussi dans le répertoire /boot, donc vous pouvez faire aussi :grep -i AGP /boot/config

Chez moi ( Mandrake 8.0 avec kernel de base 2.4.3-20mdk non modifié ) cela donne :

CONFIG_AGP=m
CONFIG_AGP_INTEL=y
CONFIG_AGP_I810=y
CONFIG_AGP_VIA=y
CONFIG_AGP_AMD=y
CONFIG_AGP_SIS=y
CONFIG_AGP_ALI=y
CONFIG_AGP_SWORKS=y

Comme j’ai une carte mère avec un chipset Via, j’ai mis en gras les deux options nécessaires dans mon cas.

D’abord nous allons vérifier quel est le drivers agp utilisé par les drivers nvidia. Pour cela il suffit de regarde le contenu de /proc/driver/nvidia/agp/status :

# cat /proc/driver/nvidia/agp/status

Pour utiliser le drivers AGP du kernel Linux, il suffit de préciser dans le fichier de configuration de XFree que nous voulons qu’il utilise agpgart.
Il suffit d’ajouter dans /etc/X11/XF86Config-4 à la section Devices pour le drivers nvidia la ligne suivante : Option “NvAgp” “2” . Cela donne par exemple :

Section “Device”
Identifier “NVIDIA GeForce 256 (generic)”
VendorName “Unknown”
BoardName “Unknown”
Driver “nvidia”
# VideoRam 4096
# Clock lines
# Uncomment following option if you see a big white block
# instead of the cursor!
# Option “sw_cursor”
Option “DPMS” “on”
Option “NvAgp” “2”
EndSection

Si vous mettez 0, il va désactiver le support AGP. Si vous mettez 1, il utilisera le drivers interne de nvidia. Comme nous venon de le voir, 2 signifie qu’il va utliser le drivers du kernel.
Pour des options plus avancées, veuillez consulter README.txt de nvidia. Il contient aussi des infos concernant le support des différents chipset AGP.

Note : Vous pouvez aussi pour ceux qui possède un processeur AMD démarrer votre système avec comme option pour le noyau mem=nopentium. Plus d’infos dans l’Appendice F du README nvidia.

3°/ J’ai upgradé XFree et depuis la 3D ne marche plus.

Cette situation est due au fait que XFree dans ses dernières versions est désormais livrée avec les librairies Mesa. Or celles-ci entrent en conflit avec les libs OpenGL des drivers nvidia. pour régler les problème il suffit de procéder comme lors de l’installation des drivers. Il suffit tout simplement de réinstaller les drivers, ceux-ci devraient faire les nettoyages nécessaires.

4°/ J’ai upgradé mon kernel et depuis XFree ne marche plus

Tout d’abord vous devez vérifier les logs/journaux du serveur graphique. Normalement vous devriez y lire un message d’erreur selon lequel il n’arrive pas charger le module nvidia.
Cette situation est due au fait que le module kernel des drivers nvidia n’a pas été copié dans le nouveau répertoire de modules de votre kernel. Voici une explication rapide.

Le kernel cherche les modules qu’il chargent ( notamment ceux préciser dans /etc/modules.conf ) dans le répertoire /lib/modules/`kernel_version`/kernel/drivers . Par exemple la Mandrake 8.0 utilise par défaut un kernel 2.4.3-20mdk, donc les drivers nvidia sont dans le répertoire /lib/modules/2.4.3-20mdk/kernel/drivers/video .
Si vous passez par exemple au kernel 2.4.9, alors le kernel ira chercher ses modules dans /lib/modules/2.4.9/kernel/drivers .
Comment régler le problème pour les drivers nvidia ? C’est tout simple, il suffit de réinstaller les drivers nvidia et il ajoute le module dans le répertoire de modules du kernel courant.

Mieux on peut demander au drivers d’installer le module/pilote pour une version donnée du noyau avec l’option –kernel-name=’VERSION’, où VERSION désigne la version du noyau telle que la renverrait la commande uname -r :

# sh NVIDIA-Linux-x86-1.0-6111-pkg1.run –kernel-name=’2.6.3-13mdk’‹— installation du pilote pour le noyau de version 2.6.3-13mdk

Pour vérifier il suffit de faire :

# modprobe -l | grep nvidia

Tout devrait marcher impeccablement.

5°/ L’interface met plusieurs minutes à se lancer, voire j’ai un écran noir total !

Cette situation peut être dues à des problèmes au niveau des BIOS de la carte graphique, celle-ci essayant d’activer un deuxième moniteur qui n’existe pas. Si vous avez un seul écran connecté à la carte graphique ( écran CRT ), vous pouvez préciser manuellement que seul un écran CRT est connecté et qu’il n’y a pas d’écran TFT et TV connecté. pour cela il faut ajouter dans la section Devices “ConnectedDevices” “CRT” et “IgnoreDisplayDevices” “DFP, TV”.
Cela donne par exemple :

Section “Device”
Identifier “NVIDIA GeForce 256 (generic)”
VendorName “Unknown”
BoardName “Unknown”
Driver “nvidia”
Option “DPMS” “on”
Option “ConnectedDevices” “CRT”
Option “IgnoreDisplayDevices” “DFP, TV”
EndSection

Note : Vous trouverez plus d’informations à ce propos dans le README des drivers nvidia.

6°/ Les performances 3D sont décevantes ou je n’ai pas le support de l’AGP avec un noyau 2.6

Si l’interface se lance mais que vous avez de mauvaises performances 3D, il se peut que cela vienne du support de l’AGP qui n’est pas configuré correctement. Un symptome est notamment que la DRI ne marche pas. Pour le diagnostiquer, il suffit d’utiliser la commande glxinfo et de chercher la ligne direct rendering. Si jamais la DRI est désactivée, vous aurez la ligne suivante :

direct rendering: No

Pour charger le module qui gère votre port AGP, il faut préciser à linux de charger le pilote AGP au démarrage. Tout d’abord il faut vérifier que la gestion AGP est active ( sous les noyaux 2.6 de la mdk 10.0 le support AGP est sous forme de module ). Il suffit de vérifier dans le fichier de configuration du noyau gràce à la commande grep -i AGP /boot/config ou grep -i AGP /usr/src/linux/.config :

CONFIG_AGP=m
CONFIG_AGP_INTEL=m
CONFIG_AGP_I810=m
CONFIG_AGP_VIA=m
CONFIG_AGP_AMD=m
CONFIG_AGP_SIS=m
CONFIG_AGP_ALI=m
CONFIG_AGP_SWORKS=m

Pour moi qui possède un chipset Via ( Northbridge ), il faut qu’il y ait le support pour mon chipset. Le nom du module qui gère mon chipset est via-agp. Pour voir la liste des pilotes disponibles, il suffit d’utilise la commande modprobe -l qui permet de lister les différents modules disponibles pour le noyau. Nous ne prendrons que ceux dont le nom contient agp :

# modprobe -lt char | grep agp‹— commande qui va lister les différents modules qui gèrent les périphériques de type character ( -t char ), ce qui comprend le port AGP, et pour laquelle on ne récupère que les modules qui contiennent agp dans le nom ( grep -i agp )

Ensuite il suffit de dire au système de charger le module au démarrage de l’ordinateur. Pour cela on préciser le nom du module à charger dans le fichier /etc/modules ( noyau 2.4 ) ou /etc/modprobe.preload ( noyau 2.6 ). On peut le faire, par exemple, avec la commande suivante :

# echo “via-agp” >> /etc/modules‹— pour un noyau 2.4
# echo “via-agp” >> /etc/modprobe.preload‹— pour un noyau 2.6

Ensuite il suffit de redémarrer ou de charger le module directement ( modprobe via-agp ) puis de lancer l’interface

7°/ Comment désinstaller les drivers Nvidia ?

Pour désinstaller les drivers nvidia vous devez d’abord arréter l’interface, puis enlever les fichiers du pilotes avec la commande suivante :

# nvidia-installer –uninstall

Ensuite vous devez faire l’inverse de ce que vous avez pour activer les drivers nvidia. C’est-à-dire remplacer nvidia par nv, virer/désactiver les options spécifiques à nvidia en les commentant.
Par exemple la section device ressemblera à ceci :

Section “Device”
Identifier “NVIDIA GeForce 256 (generic)”
VendorName “Unknown”
BoardName “Unknown”
Driver “nv”
Option “DPMS” “on”
#Option “ConnectedDevices” “CRT”
#Option “IgnoreDisplayDevices” “DFP, TV”
#Option “NvAgp” “2”
EndSection

8°/ Comment mettre à jour les drivers Nvidia ?

pour mettre à jour les pilotes nvidia, il suffit d’appeler le programme nvidia-installer avec l’option –upgrade. Il se connectera au site de nvidia, téléchargera la dernière version des pilotes, les compilera et si tout se passe bien les installera.

# nvidia-installer –upgrade

Comment choisir la meilleure distribution Linux pour votre ordinateur portable ?

linux pour jouer

Tout utilisateur d’ordinateur portable un peu malin ne doit pas négliger Linux. La question est : quelle distribution devriez-vous choisir pour exécuter Linux sur votre ordinateur portable ?

Les utilisateurs expérimentés pourraient recommander Arch Linux pour ses performances rapides, Debian pour sa stabilité et Ubuntu pour sa collection d’applications simples d’utilisation et pré-installées.

Si ce n’est pas suffisant pour vous faire tourner la tête, Slackware est aussi très populaire auprès des personnes ayant des ordinateurs plus anciens, bien qu’il ne convienne qu’aux utilisateurs avancés.

Dans cet article, nous examinerons différents scénarios d’utilisation qui devraient être familiers aux utilisateurs d’appareils portables et nous explorerons les distributions Linux qui conviennent à ces cas particuliers.

Pour faciliter la vie de tout le monde, nous avons limité ce guide aux distributions Linux Live pré-packagées. Nous nous en tiendrons aussi aux installations Live autant que possible tout au long de l’article. C’est important si vous travaillez sur un ordinateur portable d’entreprise et que vous ne pouvez pas installer de logiciel, car vous pouvez tester un système d’exploitation sans autorisation spéciale.

Linux pour le jeu vidéo

Linux est une merveilleuse plateforme de jeu, quel que soit le genre que vous préférez. Il y a beaucoup de choix, y compris des jeux de stratégie en temps réel et au tour par tour, des jeux de puzzle et des jeux de tir à la première personne.

Pour commencer dans le monde du jeu Linux, l’un des meilleurs DVDs Live doit être Fedora Games Spin, qui se présente sous la forme d’un fichier ISO de 4,1 Go téléchargeable que vous pouvez graver sur disque ou copier sur USB. Connectez-vous en tant qu’utilisateur du système Live (pas de mot de passe) et utilisez l’Application Finder pour parcourir plus de 100 jeux répartis dans des genres aussi divers que l’arcade, l’aventure et le sport.

Le concept derrière la distribution est le « boot and play », démarrer et jouer pour faire simple. Il suffit d’insérer une clé USB, un CD ou un DVD dans votre ordinateur portable pour que la distribution démarre automatiquement et que vous puissiez commencer à jouer. Cette approche est particulièrement utile si votre ordinateur portable a été configuré par un administrateur système trop zélé.

Fedora utilise des ISO hybrides qui peuvent être démarrés à partir d’un DVD ou copiés sur une clé USB. Pour ce faire, vous pouvez utiliser l’outil spécialisé Fedora Media Writer. Si vous copiez l’installation Live sur une clé USB, vous pouvez ensuite installer des extras tels que Wine et d’autres jeux via l’application Yum Extender.

Steam et ‘Play on Linux’ (un frontend convivial pour Wine) peuvent également être installés via les dépôts respectifs RPM Fusion et PlayOnLinux RPM. Une fois installé, il suffit de recharger Yum, de le mettre à jour et les paquets seront accessibles.

Il y a d’autres distributions de jeux en direct à essayer.

Live Linux Gamers est un peu ancien (la dernière version est sortie en 2011) mais est disponible en édition Lite qui s’adapte sur un CD si vous êtes à court de DVD.

Steam for Linux est un client de jeu officiel créé par Valve, les gens derrière Counter Strike et Team Fortress. Steam supporte des centaines de jeux tels que la série Civilization ainsi que le jeu de tir Half Life original.

Pour commencer, lancez une version standard de Linux comme Ubuntu, puis suivez les instructions sur le site Web de Valve pour installer le client. Il existe un SteamOS séparé basé sur Debian Linux mais il ne peut pas être démarré dans un environnement Live, il doit plutôt être installé sur un disque dur.

Enfin, il y a l’édition Ultimate Gamers basée sur Ubuntu – pour télécharger la dernière version (5.8), ignorez le lien ‘Gamer’ sur le site Web et choisissez ‘Ultimate Edition 5.8’. Choisissez l’édition Gamers dans la section Liens de téléchargement. Cela inclut également Wine et l’application PlayOnLinux pour jouer à des jeux Windows sous Linux.

Si les jeux Windows sont ce que vous recherchez, vous devrez également télécharger Cedega et CrossOver Games. Ces outils ne sont inclus dans aucune distribution, mais pour une compatibilité maximale, il est préférable de télécharger les dernières versions à partir des sites Web d’origine des développeurs.

Comment graver sous Linux avec un lecteur IDE ?

graver un cd sous linux

Les programmes de gravure sous Linux ne savent gérer que les périphériques SCSI. Mais rassurez vous. Pour faire fonctionner les graveurs IDE, le noyau linux a recours à une petite astuce : émuler le graveur IDE en graveur SCSI. Il faut d’abord vérifier si les bonnes options sont activées dans le noyau :

SCSI Support -> SCSI support = M
SCSI Support -> SCSI generic support = M
SCSI Support -> SCSI CDROM support = M
ATA/IDE/MFM/RLL support -> IDE, ATA and ATAPI Block devices -> SCSI emulation support = M

Si ces options ne sont pas activées, alors il faut les activer et recompiler le noyau. Normalement sous Mandrake 8.0+ ces options sont activées par défaut et le graveur a de fortes chances d’être préconfiguré.
Ensuite il faut configurer le chargeur de boot pour qu’il dise au noyau quel périphérique émuler en SCSI, pour cela il faut lui passer l’option hdx=ide-scsi , où hdx désigne le lecteur IDE à émuler.

Avec lilo

Il suffit de modifier /etc/lilo.conf et d’ajouter la ligne suivante : append=” hdx=ide-scsi”. Si vous avez déjà append, il suffit de rajouter juste hdx=ide-scsi à la suite.
N’oubliez pas de relancer lilo pour qu’il réenregistre sa configuration en tapant /sbin/lilo.
La ligne append doit être ajoutée dans la section relative de votre noyau par exemple juste après le label.
Cela donne quelquechose de similaire a ceci :

image=/boot/vmlinuz
label=linux
root=/dev/sdb1
append=” hdc=ide-scsi”
read-only

Encore une fois seule la ligne en gras importe. Le reste dépend de votre configuration.

Avec Grub

Il suffit de modifier /boot/grub/menu.lst et de passer en paramètre au noyau en l’ajoutant directement à la ligne kernel l’option : hdx=ide-scsi”
Cela donne par exemple :

kernel (hd2,0) /boot/vmlinuz root=/dev/sdb1  hdc=ide-scsi

Encore une fois seul ce qui est gras importe. Le reste dépend de votre configuration.

Comme je l’ai dit, hdx désigne le lecteur de CDROM IDE que vous voulez émuler en SCSI. Pour information je rapelle la nomenclature des lecteurs IDE sous Linux :
hda = primary master
hdb = primary slave
hdc = secondary master
hdd = secondary slave

Si vous ne le savez vraiment pas (bien qu’il suffit d’ouvrir au pire sa tour), voici une méthode empirique pour le retrouver :

$> grep -r CD /proc/ide/

Et exceptionellement sous Linux, il faut rebooter pour que les changement soient pris en compte.
Ensuite on vérifie si tout est ok :

$> lsmod | grep ide-scsi<- on vérifie si le module d’émulation scsi est bien chargé
$> cdrecord -scanbus<- on vérifie si cdrecord (programme de base de gravure sous Linux) le détecte

Si cdrecord le détecte, alors c’est ok.

Avant de commencer la gravure, il convient de modifier /etc/fstab. En effet, le lecteur étant émuler en SCSI, son nom de device à changer.
Pour nous y retrouver on va créer un répertoire pour monter le graveur, par exemple /mnt/graveur. Puis tester le device.
Le CDROM IDE est émulé en SCSI donc il faut tester les devices SCSI. Les CDROM SCSI sont nommés scdx (Scsi CDrom). Pour cela on met un CD de donnés dans le graveur ou le lecteur IDE qui a été émuler en SCSI et on essaie les commandes suivantes :

$> mount -t iso9660 /dev/scdx /mnt/graveur<-  avec x = 0, 1, 2, 3, ….

Dès que cela marche, vous avez trouvé le graveur. Souvent c’est /dev/scd0.
Ensuite il faut faire votre lien. Faites :

$> ls -l /dev/cdrom*

Prenez le lien qui pointe vers votre ex cdrom IDE et effacer le. Supposons que ce lien est /dev/cdrom, cela donne :

$> rm /dev/cdrom

Ensuite faites le pointer vers le le nouveau lecteur IDE émuler en SCSI :

$> ln -s /dev/scdx /dev/cdrom

Ensuite vous rajouter la ligne suivante dans /etc/fstab :

/dev/cdrom /mnt/cdrom iso9660 ro,nosuid,noauto,exec,user,nodev   0 0

ou

/dev/cdrom /mnt/cdrom auto ro,nosuid,noauto,exec,user,nodev   0 0

Les utilisateurs d’une Mandrake préféront peut être utilisé supermount :

/mnt/cdrom /mnt/cdrom supermount dev=/dev/cdrom,fs=iso9660,ro 0 0

Note : Ce cas ne s’applique bien sûr que lorsque le lien vers le lecteur émulé en SCSI s’apelle /dev/cdrom.

Vous pouvez aussi remplacer /mnt/cdrom qui est le point de montage pour accéder au graveur par le nom que vous voulez : /mnt/cdrom1 , /mnt/graveur , … Bien sûr il ne faut pas oublier de créer le répertoire correspondant.

Ensuite il ne reste plus qu’a configurer les programmes de gravure.
Les plus connus ayant une interface graphique sont : xcdroast, eroaster, k3b, konCD. Vérifier si ces programmes ne sont pas déjà dispobnibles sur les CD de votre distribution.
Une fois le programme de gravure choisi et configurer il ne vous reste plus qu’a graver. Nul besoin de redémarrer à ce stade.

Note : Si voulez faire de la Copie de CD à CD direct, il vous faudra aussi configurer votre lecteur de CD en l’émulant en SCSI pour avoir le graveur et le lecteur en SCSI.

Si vous voulez faire des pochettes de CD sachez qu’il existe des programmes comme cdlabelgen, gtkcdlabel, kcdlabel.
Faites un tour sur http://rpmfind.net pour éventuellement récupérer la version en rpm adaptée à votre distribution.

Comment installer le pilote NForce ?

pilote NForce

Le but de cet HOWTO est d’aider à installer les drivers nforce sous Mandrake 9.x. J’ai essayé de donner la méthode la plus propre qu’il soit pour que cela se passe sans encombres et ce en détaillant le plus possible.
Les commandes doivent être fait en tant que root ( super-utilisateur ).

Information :
Les pilotes nforce disponibles sur le site de nvidia sont nécessaires pour faire marcher l’interface réseau du chipset ( nvnet ). Ils servent aussi pour la carte sons, mais linux peut gérer la carte son du chipset nforce avec le pilote snd-intel8x0 en lieu et place du pilote de nvidia ( nvaudio ).

Préparation

REQUIS :
binutils, gcc, ed, kernel-source, glibc-devel, rpm-build

ed, kernel-source, glibc-devel se trouvent sur les CD de la distribution et peuvent être installé via urpmi/rpmdrake.
Vous devez installer la version de kernel-source qui correspond au noyau que vous utiliser !

$> urpmi binutils ed kernel-source rpm-build<- on install ed, binutils, kernel-source et rpm-build. glibc-devel est installé automatiquement lorsque l’on installe kernel-source
$> rpm -qa | grep kernel-source<- on vérifie la version de kernel-source, par exemple on peut avoir kernel-source-2.4.22-26mdk
$> uname -r<- on vérifie la version du noyau que l’on utilise. Celle-ci doit correspondre. Par exemple cela devrait donner dans mon cas 2.4.22-26mdk

Note :
Si votre noyau est plus ancien que la version des kernel-source que vous avez, cela signifie que vous avez installé la dernière version des kernel-source de votre distribution et qu’un nouveau noyau est disponible. Ceci arrive si vous avez configuré votre système pour récupérer les mises à jour de sécurité et corrections de bogues via internet. Pour récupérer la dernière version du noyau, il vous suffit alors de l’installer via urpmi.
Pour cela vous tapez soit :
$> urpmi -p kernel
qui vous donnera une liste des noyaux disponible, ou alors pour être sûr, vous taper directement le nom entier du noyau que vous voulez :
$> urpmi kernel-2.4.22-26mdk
Pour toujours utiliser la dernière version disponibles des noyaux pour votre système, mettez à jour vos sources updates :
$> urpmi.update -a
Puis récupérez les dernières version de votre noyau et de kernel-source avec urpmi.

1°/ Récupération des drivers :

Télécharger les drivers nvidia sur le site de nvidia. Vous sélectionnez “Linux IA32 Drivers” ( IA32 = Intel Architecture 32 bits, soit les processeurs Intel/AMD/Ciryx/Via 32 bits ). Si vous avez une connexion internet, vous pouvez procéder comme cela en console :

$> urpmi wget<- on install wget qui va nous permettre de télécharger les drivers
$> cd /tmp<- on va télécharger les drivers dans le répertoire /tmp
$> wget http://download.nvidia.com/XFree86/nforce/1.0-0261/NVIDIA_nforce-1.0-0261.src.rpm

2°/ Préparation des sources du noyau :

Vous avez différentes commandes à taper afin de pouvoir préparer les sources du noyau pour une compilation correcte des pilotes nforces. Ces commandes doivent être faites précisément ( respect casse et espces, … ). Si vous le pouvez faites juste un copier/coller.

$> cd /usr/src/linux<- on va dans le répertoire où se trouve les source du noyau. Il est crée lorsque vous installez le package kernel-source
$> make mrproper<- on nettoie les sources
$> cp /boot/config ./.config<- on récupère les options de configuration de l’ancien noyau ( ceux de mdk )
$> make oldconfig<- on compile selon cette version
$> make dep<- on initialise les dépendances entre modules/pilotes du noyau

 

Installation/Compilation

On va lancer la compilation des pilotes. Cela devrait aboutir à la création d’un rpm qu’il ne nous restera plus qu’a installer.

$> rpm –rebuild /tmp/NVIDIA_nforce-1.0-0261.src.rpm

Vous devriez obtenir la ligne suivante tous à la fin si tout s’est bien passé :

Wrote /usr/src/RPM/RPMS/i586/NVIDIA_nforce-1.0-0261.i586.rpm

Ensuite on installe le rpm crée qui contient les pilotes nforce compilé pour notre noyau

$> rpm -Uvh /usr/src/RPM/RPMS/i586/NVIDIA_nforce-1.0-0261.i586.rpm

 

Configuration

Carte son

Normalement la carte son peut être gére par le pilote alsa snd-intel8x0. Pour le vérifier, il suffit de lister les différentes cartes sons configurés et leurs pilotes gràace à la commande :

$> grep sound-slot /etc/modules.conf

Normalement vous devriez avoir ceci :

alias sound-slot-0 snd-intel8x0

Si vous avez plutôt ceci :

alias sound-slot-0 snd-intel8x0
alias sound-slot-1 nvaudio

c’est due au fait que le rpm qui a installé les pilotes nforce a configuré votre modules.conf. Il y a une entrée en trop. Si vous n’avez qu’une seule carte son, alors seul sound-slot-0 doit apparaitre.

Utiliser le pilote ALSA

pour utiliser le pilote ALSA, il faut enlever les références au pilote audio nvidia des nforce ( nvaudio ) et éventuellement à d’autres pilotes audio ( comme i810_audio qui est le pilote OSS ).
Pour cela il faut virer toutes les lignes contenant alias sound-slot-x nomdupilote et ne garder que la ligne contenant alias sound-slot-0 snd-intel8x0. Cette ligne signifie que la 1ère carte son ( sound-slot-0 ) est gérée par le pilote ALSA snd-intel8x0.
A la fin on doit avoir donc une ligne pour le pilote ALSA, et une ligne pour l’émulation OSS, soit :

alias sound-slot-0 snd-intel8x0
above snd-intel8x0 snd-pcm-oss

Note :
Si vous avez des lignes du type “above nompilote snd-pcm-oss” en plus de “above snd-intel8x0 snd-pcm-oss”, vous devez les virer afin d’éviter qu’elles n’entrent en conflit.

Utiliser le pilote nvaudio de NVIDIA

Si vous préférez utiliser le pilote nvaudio de NVIDIA, à ce moment il faut enlever toutes les références à d’autres cartes sons ( lignes commençant par sound-slot-x ou x est un numéro ), ainsi que les ligne du type above nompilote snd-pcm-oss.
Ensuite vous devez juste avoir une ligne disant que la 1ère carte son est gérée par le pilote nvaudio :

alias sound-slot-0 nvaudio

Vérification

On peut charger le pilote sans avoir à redémarrer, mais bon pour faire simple, vous redémarrer l’ordinateur et ensuite vous vérifiez que le pilote est bien chargé en tapant /sbin/lsmod | grep nompilote.
Ainsi pour vérifier si le pilote ALSA est bien utilisé vous faites :

alias sound-slot-0 nvaudio

Chez moi cela donne comme résultat :

[admin@admin3 admin]$ /sbin/lsmod | grep snd-intel8x0 snd-intel8x0     15296 1
snd-ac97-codec       52588 0 [snd-intel8x0]
snd-pcm           79652 0 [snd-pcm-oss snd-intel8x0]
snd-page-alloc     8628 0 [snd-intel8x0 snd-pcm]
snd-mpu401-uart    4704 0 [snd-intel8x0]
gameport          3284 0 [snd-intel8x0]
snd              43972 1 [snd-seq-oss snd-seq-midi-event snd-seq snd-pcm-oss snd-mixer-oss snd-intel8x0 snd-ac97-codec snd-pcm snd-timer snd-mpu401-uart snd-rawmidi snd-seq-device]

Note :
Si vous utilisez le pilote ALSA, n’oubliez d’enlever la propriétés muet pour Vol et PCM dans votre mixeur audio ( unmute ).

Carte Réseau

La chipset nforce sous la Mandrake 9.2 n’est pas géré nativement par le noyau. Dans la mandrake 10.0, le chipset réseau pourra être géré de base par le noyau gràce au pilote forcedeth qui sera intégré dans le noyau 2.4 et 2.6. Donc ce qui suit ne s’applique vraiment qu’à ceux ayant une mandrake dont la version est inférieure à la 10.0.

Tout d’abord vous devez vérifier que dans votre /etc/modules.conf il est spécifié que votre carte réseau doit utiliser le pilote nvnet.
Si vous n’avez q’une carte réseau, alors la 1ère carte réseau ( eth0 ) doit être associée au pilote nvnet, ce qui donne :

alias eth0 nvnet

Ensuite il ne vous reste plus qu’à charger le pilote puis à utiliser les outils de configuration de la mandrake qui désormais verra votre carte réseau.
Pour charger le pilote, il suffit de taper la commande suivante :

$> modprobe nvnet

up

Liens :

Où prendre les drivers :
http://www.nvidia.com/object/linux.html

Comment gérer les services au démarrage ?

centos linux startup

La plupart des démons se trouvent dans le répertoire /etc/rc.d/init.d . C’est là qu’il faut copier le script qui va gérer le démon/service ou l’appli que l’on veut lancer au démarrage.

Pour savoir les démons lancés selon la runlevel, il faut aller dans le sous répertoire correspondant. Ainsi il faut aller dans /etc/rc.d/rcx.d (avec x = numéro de runlevel ).
Après avoir choisi le runlevel dans lequel on veut lancer le démon/service, il suffit de faire un lien vers le script qui se trouve dans /etc/rc.d/init.d . Pour bien faire les choses il convient de respecter certaines conventions.

Conventions :

  • Le nom doit commancer par S (= Start ) suivi d’un numéro d’ordre sur 2 chiffres au minimum. Cela donne un nom du type Sxynom.
  • Si le script doit faire quelquechose de spécial à l’arrêt du système il faut rajouter un lien qui commence par un K (= kill).
  • Il devrait accepter comme arguments start (pour être lancé), stop (pour être arrêter) et accessoirement restart (pour relancer) et status (pour savoir si le script tourne et avoir d’autres infos).
  • Il convient de choisir correctement le numéro d’ordre. Il ne faut pas qu’il soit identique à celui d’un autre démon, et enfin il faut choisir le numéro d’ordre correct.
    En effet imaginons que notre démon utilise la carte réseau et que le script qui configure les cartes réseaux ait un numéro d’ordre de 10. Il faudra que notre démon ait un numéro d’ordre supérieur à 10, sinon comment pourrait il utiliser les cartes réseaux si elles ne sont pas configurées ?

Lancement/arrêt :

Pour lancer/arrêter un service il existe plusieurs possibilités :

Via drakxservices

Vous avez une Mandrake, alors vous pouvez utiliser drakxservices ( Mandrake Control center -> Système -> services ). Avec drakxservices vous pourrez lancer et arrêter chaque services, spécifier si vous voulez qu’ils se lancent au démarrage pour le runlevel courant et aussi avoir une description pour certains.

Manuellement

Vous pouvez le faire à la main en lançant directement le script qui gère le service. Ces scripts sont dans /etc/rc.d/init.d . Cela donne :

 /etc/rc.d/init.d/monservice stop<- Pour arréter le service
/etc/rc.d/init.d/monservice start<- Pour lancer le service
/etc/rc.d/init.d/monservice restart<- Pour relancer le service
/etc/rc.d/init.d/monservice status<- Pour connaitre l’état du service

Via la commande service

Vous pouvez aussi utiliser le programme nommé service. Ce programme est très simple à utiliser. Si vous connaissez le nom du service il suffit de faire :

 service monservice stop<- Pour arréter le service
service monservice start<- Pour lancer le service
service monservice restart<- Pour relancer le service
service monservice status<- Pour connaitre l’état du service
service monservice<- Pour connaitre les autres options que peut accepter ce service

Par exemple pour samba dont le nom de service est smb cela donne :

[root@bastard root]# service smb stop
Arrêt des services SaMBa : [ OK ]
Arrêt du service NMB : [ OK ]

[root@bastard root]# service smb start
Lancement du service SaMBa : [ OK ]
Lancement du service NMB : [ OK ]

[root@bastard root]# service smb restart
Arrêt des services SaMBa : [ OK ]
Arrêt du service NMB : [ OK ]
Lancement du service SaMBa : [ OK ]
Lancement du service NMB : [ OK ]

[root@bastard root]# service smb status
smbd (pid 31865) est en cours d’exécution…
nmbd (pid 31876) est en cours d’exécution…

[root@bastard root]# service smb
I need an action
Utilisation: /etc/init.d/smb {start|stop|restart|status| condrestart}

Administration :

On peut vouloir ensuite spécifier pour quel runlevel on veut que le script se lance automatiquement au démarrage et pour quel autre on ne veut pas. Pour cela il y a plusieurs possibilités.

Via drakxservices

Pour les utilisateurs de la Mandrake, ils pourront utiliser drakxservices (Mandrake Contriol Center -> Système -> Services ) pour définir si ils veulent lancer le service pour le runlevel courant au démarrage ou non. Ils pourront aussi disposer d’une description du service ( si celui-ci le supporte ) ainsi que de son état courrant ( démarré ou à l’arrêt )

Via ntsysv ou tksysv

Les utilisateurs de Red Hat et de Mandrake pourront aussi utiliser ntsysv voire tksysv qui sont des outils en mode console ou avec une interface graphique en tcl/tk pour gérer les services.
Pour le runlevel courant il suffit de lancer ntsysv sans arguments et de cocher les services que l’on veut lancer au démarrage :

$> ntsysv

Pour un autre runlevel il suffit de spécifier la runlevel visé :

$> ntsysv –level 3<- permet de gérer les services de la runlevel 3
$> ntsysv –level 35<- pour gérer plusieurs runlevel en même temps ( ici 3 et 5 )

En utilisant chkconfig

chkconfig est un utilitaire qui permet de gérer les services en ligne de commande. Il se révèle pratique dans le sens qui permet par exemple de gérer des services dans un script. Pour cela il faut que le script du service soit correctement formaté car les informations sur celui-ci ( runlevel par défaut pour lequel le script doit être activé, description ) sont directement intégrées au début de celui-ci.

Obtenir des informations sur un service

$> chkconfig –list<- fournit la liste de tous les services reconnus et précise pour chaque runlevel si ceux-ci sont lancés au démarrage

$> chkconfig –list service <- fourni la configuration actuelle du service nommé service pour tous les runlevel

Actriver/Désactiver un service sur un service

$> chkconfig –level 35 service on <- spécifie que service doit être lancé au démarrage pour les runlevel 3 et 5

$> chkconfig –level 35 service off <- spécifie que service ne doit pas être lancé au démarrage pour les runlevel 3 et 5

$> chkconfig –add service<- ajoute service comme étant un service pouvant être géré par chkconfig ( bien sûr le fichier du script doit être correctement formaté )

$> chkconfig –del service<- supprime le service

$> chkconfig service reset<- remet la configuration à celle par défaut définie dans le script

Exemple :

Je veux lancer le démon diablo dont le script s’apelle diablod. ce script doit être lancé au démarrage des runlevel 3 et 5 et son n° d’ordre est 99 et … qui ne fait rien de spécial

Manuellement

On va procéder manuellement notamment en ce qui concerne la configuration du démarrage du script.

$>  cp diablod /etc/rc.d/init.d/<- je copie le script diablod dans /etc/rc.d/init.d

$>  chmod +x /etc/rc.d/init.d/diablod<- Bien sûr il faut que le script soit exécutable

$>  ln -s /etc/rc.d/init.d/diablod /etc/rc.d/rc5.d/S99diablod <- Comme je suis toujours en runlevel 5 et que je veux qu’il soit lancé en runlevel 5, je vais mettre le lien  dans /etc/rc.d/rc5.d

$>  ln -s /etc/rc.d/init.d/diablod /etc/rc.d/rc3.d/S99diablod <- Je vais de temsp en temps en runlevel 3 et je veux qu’il se lance au boot, donc j’ajoute un lien pour la runlevel 3

$>  ln -s /etc/rc.d/init.d/diablod /etc/rc.d/rc5.d/K99diablod <- Comme il fait un truc spécial à l’arrêt du système je rajoute un script kill

Avec chkconfig

Voici comment il me faudrait gérer le script avec chkconfig. Vous allez voir cela simplifie pas mal de chose car chkconfig s’occupe de tout.

$>  cp diablod /etc/rc.d/init.d/<- Une nécessité : je copie le script diablod dans /etc/rc.d/init.d

$>  chmod +x /etc/rc.d/init.d/diablod<- Bien sûr il faut que le script soit exécutable

$> chkconfig –add diablod<- je demande à chkconfig de prendre en charge mon script

$> chkconfig –level 23 diablod on<- J’active mon script au démarrage pour le runlevel 2 et 3

$> chkconfig diablod reset<- Oups, je me suis trompé, il fallait que ce soit 3 et 5. Comme c’est précisé dans mon script je demande à chkconfig de mettre les valeurs par défaut définies dans le script

Comme je l’ai dit avant, il suffit de regarder dans /etc/inittab pour connaitre la signification de vos runlevel.

contenu d’un script de service type

Voici le squelette de ce à quoi devrait ressembler un script globalement :

#!/bin/bash
#
#  chkconfig: 35 99 9
#  description: démarre et arrête mon service personalisé diablo
#               qui ne fait rien de spécial

# on va tester les arguments donnés au script
case “$1” in
start)
#si on passe comme argument start
echo -n “Lancement de $(basename $0)”
…. ce qu’il faut faire….
;;
stop)
#si on passe comme argument stop
echo -n “Arrêt de $(basename $0)”
…. ce qu’il faut faire….
;;
restart)
#si on passe comme argument restart
echo -n “Redémarrage de $(basename $0)”
…. ce qu’il faut faire….
;;
*)
#Pour tous les autres cas
echo -n “Usage: $(basename $0) start| stop|restart”
#on rappelle la syntaxe du script et on quitte
exit 1
esac

La ligne chkconfig: 35 99 9 signifie que chkconfig doit configurer le service pour qu’il se lance au démarrage des runlevel 3 et 5 avec un n° d’ordre de 99.
la ligne description contient la description du script , telle que par exemple on la verra afficher dans drakxservices.

Comment utiliser Cooker ?

Introduction

Cooker est la distribution de test et de développement de Mandrake. Elle intègre la plupart du temps la dernière version des packages. Bien sûr, comme c’est du testing, vous pouvez casser votre systeme.
De plus comme ce sont des packages de test, vous pouvez avoir des problèmes de stabilités voire même perdre vos données : rien n’est garantie.

Pourquoi intégrer Cooker ?

  • Pour avoir les dernières versions des packages
  • Participer au développement de Mandrake et à la préparation des prochaines versions en faisant des rapports de bugs ou en proposant des améliorations.
  • En apprendre plus sur le système Mandrake et Linux en général
  • L’amour du Risque (si tu t’appelles Jennifer et Jonathan Hart)

Que n’est pas Cooker ?

  • une ML (Mailings Lists) où poser des questions si on n’arrive pas à utiliser la distribution originale/officielle (il y a d’autres mailings lists pour cela)
  • une distribution de production
  • une simple mise à jour de la Mandrake actuelle

Note : Ils est vivement déconseillé de mélanger des packages cooker avec les packages d’une distribution stable. Si vous avez des problèmes de stabilités, il ne faudra pas être surpris.
C’est FULL cooker ou rien du tout !

Utiliser et participer à Cooker ?

S’inscrire aux Listes de diffusions de cooker

Avant de faire des mises à jours Cooker, il est fortement conseillé d’intégrer les ML de cooker (changelog et cooker).
Grâce à la ML changelog, vous aurez connaissances des nouveaux packages, et grâce à cooker des éventuels problèmes qui ont été rencontré lors de l’utilisation de ces packages. De plus vous pourrez faire part des éventuelles incompatibilités ou problêmes rencontrés sur votre système lors de l’utilisation de ces packages de développement. Le fait d’y apporter une solution, un patch, serait la cerise sur le gateau !

Note : Je ne saurais trop conseiller d’attendre 5 jours après la sortie d’un package critique comme celui du noyau ou de rpm, afin de connaitre les risques qu’ils pourraient y avoir à faire la mise à jour. De plus avoir une sauvegarde de vos principaux fichiers de conf et une disquette bootable, voire mieux une mini distribution de secours est recommandé.

Bien sûr l’anglais est de rigueur (même si beaucoup d’intervenants sont français) et récupérer les mails chez soi avec un client mail de type kmail/balsa/evolution est plus que conseillé, car vous pouvez avoir facilement plus de 50 mails par jours (votre boite aux lettres serait vite saturée). Je vous recommande de configurer ce client mail pour récupérer les mails toutes les 10 minutes au minimum et de laisser celui-ci tourner en permanence.
Pour cela il faut utiliser une boite aux lettres qui permet de récupérer les mails par accès POP3/IMAP . Souvent l’email de votre FAI suffira amplement…

Note : Si vous cherchez plutôt de l’aide, il est possible de souscrire aux mailing lists pour débutant ou expert.

On peut y choisir la langue de la mailing list.

Participer à cooker
  • http://qa.mandrakesoft.com/twiki/bin/view/Main/CookerHowTo : ce HOWTO vous expliquera différentes choses à propos de cooker ( méthodes d’installtion, rapport de bugs, explication de certains termes, etc .. )
  • http://qa.mandrakesoft.com/twiki/bin/view/Main/CookerWeeklyNews : Avec le Cooker Weekly News vous aurez un résumé de ce qui s’est passée de plus important sur cooker durant les 2 semaines précentes.
  • http://qa.mandrakesoft.com/ : Bugzilla, l’endroit où vous allez rapporter les bugs que vous avez. Avant tout assurez vous d’avoir les derniers packages disponibles et ne mélangez des packages cooker avec ceux d’une release stable.
  • http://qa.mandrakesoft.com/twiki/bin/view/Main/HowTo : Tous les HOWTO nécessaires lorsque l’on veut participer au développement.
Les mises à jours

Voici le point le plus intéressant. Celui des mises à jours.
La Mandrake dispose de 2 ensembles d’outils pour faire ces mises à jours un graphique et un en console. Rpmdrake est l’outil graphique, alors que urpmi est celui en mode console.
Rpmdrake n’est en fait qu’un front end à urpmi qui permet de faire les mises à jours de manière agréable.

Il est fortement recommandé de posséder une bonne connection internet ( ADSL/cable ) car vous allez être amener à télécharger beaucoup de Mo par jour ( en moyenne 30 Mo ). Pour ceux qui ont des limites d’upload, je leur conseille de bien surveiller leur compteur

La première chose a faire est d’ajouter une nouvelle source de type cooker à rpmdrake/urpmi. Le plus simple est de le faire via rpmdrake.
Pour récupérer les différents éléments tels que l’url du site ftp et l’emplacement du fichier hdlist je ne saurais trop vous conseiller de jeter un oeil sur le site Easy urpmi.
Si tout se passe bien, il va récupérer la liste des packages (environ 18Mo => peut prendre beaucoup de temps), initialiser les dépendances, etc …. Normalement ensuite, vous devriez avoir une nouvelle source.

Rpmdrake ?

Note : Il se révèle intéressant de lancer rpmdrake depuis une console et d’utiliser un soft de monitoring réseau pour bien vérifier l’état d’avancement des différentes.

rpm drake

 

Dernières recommandations
  • Je conseille d’utiliser rpmdrake depuis une console, ainsi il est plus facile de voir les  erreurs qui pourraient survenir.
  • Si un package est récalcitrant à l’installation et qu’il ne s’installe pas avec rpmdrake, utilisez urpmi, vous pourrez forcer l’install beaucoup plus facilement. Profitez en pour envoyer un mail à cooker expliquant ce problème (si cela n’a pas déjà été fait).
  • Attendez quelques jours avant de mettre à jours des packages critiques (noyau, applications système) et surtout abonner à la ML pour être au courant si éventuellement il y a des pbs et si oui comment y faire face.

Les outils gravitants autour d’urpmi

Autour d’urpmi s’articulent plusieurs outils qui permettent de gérer les sources et gérer les packages.

urpmi.addmedia

Il permet d’ajouter des médias à urpmi. Si vous voulez utiliser cooker, il vous faudra ajouter des médias cooker.
Un bon moyen d’avoir la bonne adresse pour ces médias ftp, est d’aller sur le site d’Easyurpmi.
Pour ajouter le media main de cooker, on pourrait taper la commande suivante :

# urpmi.addmedia cooker_contrib ftp://ftp.ciril.fr/pub/linux/mandrakelinux/devel/cooker/i586/media/contrib with media_info/hdlist.cz

urpmi.removemedia

Il permet d’enlever des médias. Si il est lancé sans options, il donne la liste des média disponible.
Pour enlever un média il suffit de préciser le nom du média.#  urpmi.removemedia cooker_contrib

urpmi.update

Il permet de mettre à jour la liste des packages disponibles pour les média. Si vous utiliser des média de type cooker, il faut savoir que ces média sont mis régulièrement à jour car il y a régulièrement de nouveaux packages disponibles.

  • Rafraichir la liste des packages d’un média précis :#  urpmi.update media1
  • Rafraichir la liste des packages de tous les média non amovibles ( notamment les média de type ftp ) :#  urpmi.update -a
  • Force la mise à jour des clés PGP utilisées pour la signature des packages du média :#  urpmi.update –force-key -a
urpmi

C’est avec urpmi que vous pourrez installer des packages. Soit vous ferez une mise à jour globale du système ( –auto-select ), soit vous mettrez à jour seulement un package particulier.
Voici les utilisations les plus courrantes :

  • Mettre à jour le système tout en demandant de ne pas vérifier la signature des rpm :#  urpmi –auto-select –no-verify-rpm
  • Installer un nouveau noyau :#  urpmi -p kernel
  • Tester si l’installation d’un package est possible :#  urpmi –test nomdupackage
  • Installer ou avoir la liste des package dont le nom contient un motif :#  urpmi –fuzzy lemotif
  • N’efface pas le rpm téléchargé dans /var/cache/urpmi/rpms après l’installation de celui-ci :#  urpmi –noclean package
  • Mise à jour des packages avec seulement les packages disponibles sur media1 et media2 :#  urpmi –media media1,media2 –auto-select
  • Mise à jour automatisée sans poser de question ( répondra toujours par l’affirmative ) :#  urpmi –auto –auto-select
  • Mise à jour des packages mais ne désinstalle pas des packages qui pourraient entrer en conflit, cela peut permettre déviter d’avoir kde désinstallé par mégarde parce qu’un package entrait en conflit … :#  urpmi –no-uninstall –auto-select

Pour avoir plus d’informations reportez vous au tutoriel d’urpmi

Note : Par défaut urpmi, urpmi.addmedia, urpmi.update utilisent curl pour télécharger les fichiers depuis les serveurs ftp. Des fois curl peut ne pas fonctionner correctement : vous pouvez alors utiliser wget. Pour cela il suffit d’utiliser l’option –wget
#  urpmi –wget –auto –auto-select

Comment installer plusieurs distributions

linux distibutions

Il arrive souvent que l’on veuille installer 2 distributions Linux en parallèle et pouvoir booter sur l’un et l’autre.

Plusieurs solutions existent, et parmi ces solutions, il y a le chain-loading.

Le Chain Loading consiste à chaîner les boot loader. Ainsi le chargeur de boot de la première distribution ( li/grub ) chargera le chargeur de boot de la 2ème distribution ( lilo/grub ) lorsque l’on voudra démarrer la deuxième distribution.
Comment procéder ? il faut respecter plusieurs étapes. La 1ère distribution que l’on va installer va devenir la distribution principale. Les autres seront appelées des distribution secondaires.

Note : Toutes les modifications de fichiers système et/ou les commandes devront être lancées en tant qu’administrateur du système ( root ).

Note 2 : On va se baser sur le schéma de partitionnement suivant :
distribution principale : / = /dev/hda2 , /home = /dev/hda5 , swap = /dev/hda7
distribution principale : / = /dev/hda3 , /home = /dev/hda6 , swap = /dev/hda7

Note 3 : Il peut se révéler très intéressant et très pratique d’utiliser la même partition pour le /home de la distribution principale et le /home de la distribution secondaire.

1ère étape : Installer la distribution principale

Tout d’abord on installe la distribution principale. C’est le chargeur de boot de celle-ci qui permettra de lancer les chargeurs de boot des distributions secondaires.
Pour cela, il faut installer le chargeur de boot dans la MBR ( Master Boot Record ) du disque de démarrage. Souvent ce sera pour un système IDE le Primary Master qui s’apelle sous Linux hda.

Lilo

Normalement lors de l’installation de votre distribution vous devriez pouvoir choisir facilement le fait d’installer lilo dans la MBR. Cependant dans le cas où vous voudriez le faire manuellement, il vous suffit d’éditer le fichier /etc/lilo.conf et de modifier l’option boot. Cette option définie l’endroit où lilo doit s’installer. Dans notre cas, nous supposons que hda est notre disque de boot et donc il faudra avoir boot=/dev/hda pour que lilo s’installe dans la MBR. Voici un extrait d’un lilo.conf avec l’option boot correctement positionnée :
boot=/dev/hda
map=/boot/map
prompt
nowarn
timeout=100
keytable=/boot/fr-latin1.klt
message=/boot/message
image=/boot/vmlinuz
label=”linux”
root=/dev/hda2
initrd=/boot/initrd.img
append=”resume=/dev/hda7 hdc=ide-cd splash=silent”
vga=788
read-only

Ensuite pour valider les changement, il ne faut pas oublier de lancer la commande lilo :/sbin/lilo

grub

Pour installer GRUB dans la MBR, il suffira de lancer la commande suivante :
grub-install /dev/hda
On peut aussi utiliser la notation native de grub ce qui fait que la commande précédente devient :
grub-install ‘(hd0)’

2ème étape : Installer la ou les distribution(s) secondaire(s)

Après avoir installée notre distribution principale et vérifier qu’elle bootait correctement, nous allons installer la distribution secondaire. En fait là où il faut faire attention, c’est le fait qu’il ne faut pas installer le chargeur de boot de la distribution secondaire dans la MBR !!!. Il faut installer le chargeur de boot dans une partition. Souvent on choisira la partition / ou /boot de la distribution secondaire. Dans notre cas nous choisirons la partition / ( /dev/hda3 ).

Lilo

Lors de l’installation, on peut normalement décider de l’endroit où l’on veut installer lilo. Sinon on peut modifier manuellement le fichier /etc/lilo.conf afin que lilo s’installe sur une partition. L’option boot devra être positionnée correctement, dans notre cas cela donne boot=/dev/hda3. Voici un extrait du lilo.conf de la distribution secondaire :
boot=/dev/hda3
map=/boot/map
prompt
nowarn
timeout=100
keytable=/boot/fr-latin1.klt
message=/boot/message
image=/boot/vmlinuz
label=”linux_sec”
root=/dev/hda3
initrd=/boot/initrd.img
append=”resume=/dev/hda7 hdc=ide-cd splash=silent”
vga=788
read-only

Ensuite pour valider les changement, il ne faut pas oublier de lancer la commande lilo :/sbin/lilo

grub

Pour installer GRUB dans la partition / de la distribution secondaire, il suffira de lancer la commande suivante :
grub-install /dev/hda3
On peut aussi utiliser la notation native de grub ce qui fait que la commande précédente devient :
grub-install ‘(hd0,2)’

3ème étape : chainloader les autres chargeur de boot à partir du chargeur de boot de la distribution principale

Après avoir démarrer avec la distribution principale, on va ajouter les entrées nécessaires dans le fichier de configuration des chargeurs de boot afin de chainloader les autres chargeurs de boot.

Lilo

On va donc ajouter une entrée dans /etc/lilo.conf de type other, pointant vers le / de la secondaire ( /dev/hda3 ), qui permettra de charger lorsqu’on la sélectionnera le chargeur de boot de la distribution secondaire. Voic l’entrée que l’on ajoutera :
other=/dev/hda3
label=”distro_2″

Ensuite pour valider les changement, il ne faut pas oublier de lancer la commande lilo :/sbin/lilo

grub

De même pour grub, on va modifier le ficher /boot/grub/menu.lst et ajouter l’entrée suivante :
title Distro secondaire           root (hd0,2)
chainloader +1

les changements seront pris automatiquement en compte par GRUB.

Voilà ! Normalement au prochain démarrage, lorsque vous sélectionnerez l’entrée correspondant à la distribution secondaire, vous tomberez sur son chargeur de boot et celui-ci vous permettra de la démarrer.

 

Comment utiliser urpmi –parallel

Ce HOWTO aura pour but de vous montrer comment utiliser la fonction d’installation parallèle d’urpmi.
Nous allons configurer urpmi afin qu?il mette à jour des postes clients depuis un serveur. Les postes clients ont pour nom DNS client1 et client2. Nous allons utiliser SSH pour faire la mise à jour

Configuration des clients

Sur les clients il convient juste de s?assurer qu?un serveur SSH est installé et qu?il autorise les connexions ( notamment de l?utilisateur root ).

Configuration et installation du serveur SSH

urpmi openssh-server

On édite le fichier de configuration du serveur SSH /etc/ssh/sshd_config et on le configure afin qu?il autorise les connexion de l?utilisateur root ( PermitRootLogin yes ) car par défaut ceci est désactivé :

# $OpenBSD: sshd_config,v 1.70 2004/12/23 23:11:00 djm Exp $

# This is the sshd server system-wide configuration file. See
# sshd_config(5) for more information.

# This sshd was compiled with PATH=/usr/local/bin:/bin:/usr/bin:/usr/X11R6/bin

# The strategy used for options in the default sshd_config shipped with
# OpenSSH is to specify options with their default value where
# possible, but leave them commented. Uncommented options change a
# default value.

#Port 22
#Protocol 2,1
Protocol 2
#AddressFamily any
#ListenAddress 0.0.0.0
#ListenAddress ::

# HostKey for protocol version 1
HostKey /etc/ssh/ssh_host_key
# HostKeys for protocol version 2
HostKey /etc/ssh/ssh_host_rsa_key
HostKey /etc/ssh/ssh_host_dsa_key

PermitRootLogin yes

#RSAAuthentication yes
#PubkeyAuthentication yes
#AuthorizedKeysFile .ssh/authorized_keys

# For this to work you will also need host keys in /etc/ssh/ssh_known_hosts
#RhostsRSAAuthentication no
# similar for protocol version 2
#HostbasedAuthentication no
# Change to yes if you don’t trust ~/.ssh/known_hosts for
# RhostsRSAAuthentication and HostbasedAuthentication
#IgnoreUserKnownHosts no
# Don’t read the user’s ~/.rhosts and ~/.shosts file
s #IgnoreRhosts yes

# Change to no to disable s/key passwords
#ChallengeResponseAuthentication yes

X11Forwarding yes

UsePrivilegeSeparation yes

#Compression yes

# override default of no subsystems
Subsystem sftp /usr/lib/ssh/sftp-server

On relance le service sshd afin que les modifications soient prises en compte :

service sshd restart

il conseillé de tester que l?on peut se connecter sur le serveur depuis l?ordinateur lui-même ou depuis un autre en tapant par exemple la commande suivante dans le cas du poste client1 :

ssh root@assistante2

Configuration des médias sur les clients

Pour ajouter les média sur les postes clients, on peut s?aider du site http://easyurpmi.zarb.org pour configurer les médias. Le Gestionnaire de média de rpmdrake peut aussi le faire de manière automatique. Par exemple pour ajouter de manière automatique les média main, contrib pour une Mandriva 2006 ( le nom des média sera préfixé par 2006_ ) :

urpmi.addmedia --distrib 2006_ ftp://ftp.proxad.net/pub/Distributions_Linux/MandrivaLinux/official/2006.0/i586

Ensuite on ajoute le média pour les mises à jours de sécurité, normalement on peut le faire de manière graphique et automatique lors du 1er lancement de MandrakeUpdate :

urpmi.addmedia --update 2006_update_secu ftp://ftp.proxad.net/pub/Distributions_Linux/MandrivaLinux/official/updates/2006.0/RPMS/ with media_info/hdlist.cz

Si tous se passe bien alors on peut passer à la configuration du serveur.

 

Configuration du serveur

Configuration d’urpmi sur le serveur

Le serveur sera celui qui aura les média pour urpmi configuré et qui enverra les commandes aux postes clients.

  1. Tout d’abord on procède à l’installation du paquetage urpmi-parallel-ssh :
    urpmi urpmi-parallel-ssh
    
  2. On édite le fichier /etc/urpmi/parallel.cfg dans lequel on va définir une ligne du type : nom_du_groupe:protocole_utilisé:client1:client2
    Dans notre cas, nous voulons créer le groupe clients_grp qui regroupera les ordinateurs clients. On utilisera le protocole SSH pour communiquer avec eux. Les postes clients se nomment ( noms DNS ) : client1 et client2. Cela nous donne la ligne suivante :

    clients_grp:ssh:client1:client2
    
  3. on configure les médias sur le serveur, on peut s?aider du site http://easyurpmi.zarb.org pour configurer les médias. Le Gestionnaire de média de rpmdrake peut aussi le faire de manière automatique. Par exemple pour ajouter de manière automatique les média main, contrib pour une Mandriva 2006 ( le nom des média sera préfixé par 2006_ ) :
    urpmi.addmedia --distrib 2006_ ftp://ftp.proxad.net/pub/Distributions_Linux/MandrivaLinux/official/2006.0/i586
    

    Ensuite on ajoute le média pour les mises à jours de sécurité, normalement on peut le faire de manière graphique et automatique lors du 1er lancement de MandrakeUpdate :

    urpmi.addmedia --update 2006_update_secu ftp://ftp.proxad.net/pub/Distributions_Linux/MandrivaLinux/official/updates/2006.0/RPMS/ with media_info/hdlist.cz
    

    Installation et Configuration du client SSH

    On installe le client SSH :

    urpmi openssh-client
    

    On génère la paire de clés privés/publiques SSH pour l?utilisateur root avec la commande ssh-keygen. On utilisera l’encryptage DSA et al clé sera stocké dans /root/.ssh/id_dsa :

    ssh-keygen -t dsa
    

    On copie la clé publique sur les postes clients client1 et client2 :

    ssh-copy-id -i ~/.ssh/id_dsa.pub root@client1
    ssh-copy-id -i ~/.ssh/id_dsa.pub root@client2
    

    Si tout s?est bien déroulée, on devrait pouvoir se connecter sur les postes client1 et client2 en tant que root sans fournir de mot de passe en utilisant par exemple la commande suivante à partir du serveur :

    ssh root@assistante2
    

    Note : On peut envisager de désactiver l?utilisation des mots de passes pour la connexion via SSH, pour cela il suffit de mettre PasswordAuthentication no dans le fichier /etc/ssh/sshd_config des postes clients ( client1 et client2 ).

    Bien que la commande urpmi soit parallélisée, la commande « urpmi.update » qui permet de mettre à jour les média ne l?est pas. Cela pourrait poser problème car les médias des clients et du serveur ne seraient plus synchrones. C?est pourquoi on va faire appel à un programme tierce qui permettra de lancer la mise à jour des média sur les différents postes en même temps. Se programme se basera aussi sur SSH pour fonctionner. Ce programme se nomme fanout et se trouve dans les média contrib. Pour l?installer il suffit de procéder comme suit :

    urpmi fanout
    

    Ensuite on lance la mise à jour des médias sur le serveur ( localhost ) et les 2 postes clients :

    fanout "localhost client1 client2" "urpmi.update -a"
    

    Si cela marche alors on peut faire un essai en lançant une mise à jour sur les postes clients avec urpmi –parallel, il suffit de préciser à la commande le groupe que l?on veut mettre à jour et ensuite de spécifier le paquetage que l?on veut installer. Pour faire une mise à jour de OpenOffice, on fera :

    urpmi --parallel  clients_grp openoffice.org
    

    Pour faire une mise à jour globale des systèmes, on fera :

    urpmi --parallel  clients_grp ?auto-select --auto --keep
    
    En éspérant vous avoir aidé !