Exit samsufi, kimsufi

Ovh a changer le nom de son nouveau type de serveur dedié (samsufi) dont on en saura un peu plus demain.
« ca » faisait p’tetre un peu trop péjoratif ? 😀

Et voila, l’offre est sortie: http://www.kimsufi.com/
En gros

  • 10 Mbits illimités
  • Celeron 2 Ghz
  • 256 Mo de RAM
  • 160Go de DD
  • Beaucoup d’offre d’OS (windows ..)
  • 24 €

Ce que je peux en dire par rapport a dedibox par exemple:

Seulement 10 Mbits au lieu de 100 (cad 1 Mo/s au lieu de 10 Mo/s).
Un giga de ram pour dedibox alor que 256 Mo pour kimesufi.

Le proc celeron est a mon avis plus performant mais vraiment rien de transcendant.
Globalemment je dirait d’emblé que c’est mort pour les serveur de jeux (déja que la dedibox c’est pas ça) mais ça peut etre très cool comme petit serveur dedié avec bon DD et bonne bande passsante et pas cher.

C’est moin cher que dedibox (36€) mais aussi moin puissant.
A mon avis là ou il vont gagner des clients, c’est déja sur les OS, windows et cie ne sont pas proposé sur dedibox.

En tout cas on est globalemment sur l’offre que j’avais décrite de samsufi pour le prix, mais pour le reste je suis un peu decu.

Voulu faire les malins …

Au nom encore une fois du sacro saint droit d’auteur copyright et bla et bla …, les éditeurs de presse belge à travers leur representant: CopiePresse, souhaitent que leurs arcticles n’apparaissent pas sur google news.

Google était quand même menacer d’une amende d’un million /jour !
Alors google pas fou a réagit, et a donc virer tout les sites se plaignant de news.google.be.

Mais voila il s’est suremment demandé aussi pourquoi ne pas les virer carrement de l’index du moteur de recherche en prime, et bien la question n’a pas du se poser bien longtemps vu le paquet de sites qui se sont déjà fait dégommer.

Après tout, il faut savoir ce qu’ils veulent!

Sur google news, seule une (très courte) partie de l’arcticle est « volée » par google. Et tient comme de par hasard, ca ressemble fortement à la description présente sur le moteur de recherche.
Or sur des arcticles, cette decription est raremment renseignée dans les meta et surtout elle n’est pas toujours prise en compte si elle existe.
Google se protège donc aussi du coté du moteur de recherche :-D.

Déja qu’a mon avis il faut être un « complet defasé avec la conjoncture web du moment » doublé d’un taré fini pour virer son site de google news, un super générateur de traffic.
Mais en plus quand on sait très bien que l’on risque de se faire virer de l’index … après tout , je sais pas en Belgique mais ici google, c’est juste 90% du traffic moteurs… 😀

Voila se qui arrive quand on est très bon peut-être pour le journalisme et la gestion courante mais que l’on ne pose pas la question à des expert quand il s’agit de web.
M’enfin, je ne doute pas que la leçon va vite être apprise, à mon avis avec dans les 15-35% de pertes net sur la pub 😀 (j’tablerais facilemment sur 35)

On va pouvoir faire encore de belles blagues sur les belges.
D’un autre coté se sont des site français qui vont maintenant être favorisé sur googlenews be et les autres sites qui n’ont pas porté plainte.
Arf doubler son bénef grace à ses concurents .. c’est pas si mal 😀

Emplacemment historique awstats

Arf que de galères ridicules.
J’avais mal configurer awstats et ce cette manière il me faisais des stats sur tout les sites du serveur et pas seulement celui voulu.
Une fois ceci corrigé, je relance le script de génération html mais la merdouile, il conserve l’histoique et incremente juste en faite les stats.

Donc pour effacer l’historique/cache ancien de awstats, allez jeter un oeil dans:

/var/lib/awstats/

Les fichier sont de la forme:
awstats_DATE_._Nom-du-site_.txt

++

Que fait le JT ??

On attend quoi pour en entendre parler au JT ??

http://www.journaldufreenaute.fr

Linux rechercher fichiers en fonction de leur taille

Si comme moi vous chercher une commande linux pour voir tout les fichiers sur votre disque dur qui dépassent une certaine taille, utilisez:

find / -size +1024k -print

Sachant que 1024k est la taille en kilo-octet (1 mega)

Utile, pour ma part pour voir (en plus des log ftp) si je n’heberge pas des fichiers pour une board ftp à mon insu 😀

++

Samsufi

Samsufi: voici le nouveau nom de code du prochain serveur dedié ovh dont on ne doute pas qu’il sera le concurrent direct de la dedibox.
« Ca me suffit » induisant un serveur dedié « leger ».

Tout d’abord, d’ou est venu cette nouvelle, tout simplemment d’une newsletter ovh ou octave écrivait:

Bonjour,
Nous travaillons actuellement sur un nouveau
serveur dédié qui, n’ayant pas peur des mots,
va révolutionner le marché du dédié. Son
nom du code est samsufi.

Pour en savoir plus, completez ce dialogue
avec les mots suivants: DVD, chti, samsufi,
neuf, gros, chtite,

– ce …… CPU avec cette …… RAM et ce
…… disque, tout tout ……., pour le
prix d’un …… ?
– oui, oui …… !

Amicalement
Octave

Donc, si je m’y colle je verrais bien :

ce chti CPU avec cette chtite RAM et ce gros disque, tout tout neuf,
pour le prix d’un dvd ?

oui oui samsufi !

Le prix d’un dvd: 20€ !?

Pour cette offre, je pense qu’ovh s’appuiera sur un proco d’ordi portable car sinon, je vois difficilemment comment ils pourraient tenir la route car c’est l’electricité qui est le plus gros soucis dans l’hebergemment pour le moment à mon avis.

Il peuvent aussi recycler leurs vieux celerons qui trainent depuis les renouvellement d’offres, mais vu leur partenariat avec INTEL (dsl pas de musique ^^) je vois bien un serveur a base de core duo ou de centrino. Et de plus ca serait un proc « tout tout neuf »

Mais la ou je me pose la plus grosse question que va-t-il en être de la bande passante ???

Va-t-on taper direct aussi haut que dedibox avec 100mbits illimité !?
J’ai des doutes car tout le monde n’a pas un peering privé avec FT … 😀

Quand au DD il faudra au moin faire aussi bien donc suremment 200go et avec la aussi pour faire aussi bien 1go de ram.

Cependant, les bench des intel seront certainnemment à leurs avantages face au VIA donc peut-être que 512 de RAM

Bref on attend des news encor Octave…

Empecher affichage version apache

Dans un soucis de sécurité, il est conseillé de ne pas afficher votre version d’apache et tout ce qui va avec (mod-ssl …)

On peut pas dire non plus que ce soit super secure mais c’est toujours un plus 😉

Il suffit d’editer votre fichier /etc/apache2/apache2.conf
nano /etc/apache2/apache2.conf

Et rajouter ensuite ces lignes toutes simples:

# ServerTokens : masque les version de produits dans les headers affiche simplement Apache
ServerTokens Prod
# ServerSignature : masque les version de produits dans les pages générées par Apache
ServerSignature Off
# Options -Indexes : empèche la génération automatique des index de répertoires (listing pâr Apache des fichier d'un répertoire lorsque index n'est pas présent)
Options -Indexes

Personnelement, je commente la dernière ligne, car je me sert de l’indexation automatique.

Script de backup sauvegarde mysql par ftp

Voici un petit script pour sauvegarder toutes vos bases de données mysql puis les envoyé sur un ftp.
Le tout en gardant seulement un certains nombre de jours de backup.

J’utilise yafc pour le ftp, si vous ne l’avez pas:

Aptitude install yafc

Ensuite voici le script:

mkdir /cron
nano /cron/script_backup_mysql.sh

Le script en lui même !

#!/bin/bash
#Backup mysql par ftp
Mysql_User="root" 
Mysql_Paswd="password-sql" 
Mysql_host="localhost"
# Emplacemment des different prog utilisé, laisser tel quel si vous n'avez rien bidouillé
MYSQL="$(which mysql)"
MYSQLDUMP="$(which mysqldump)"
CHOWN="$(which chown)"
CHMOD="$(which chmod)"
GZIP="$(which gzip)"

# Emplacemment du dossier de backup local
DEST="/home/archives/backup/"

#Rep ou on fou le sql
DEST_mysql="$DEST/mysql"

#Date du jour
NOW="$(date +"%d-%m-%Y")"

# Databases a ne pas sauvegarder separer par des espaces
IGGY=""

# On initialise les variables
FILE=""
DBS=""

#on cree le rep
[ ! -d $DEST_mysql ] && mkdir -p $DEST_mysql || :

#On limite l'acces au root uniquemment
#$CHOWN 0.0 -R $DEST_mysql
#$CHMOD 0600 $DEST_mysql

# On liste les bases de donnees
DBS="$($MYSQL -u $Mysql_User -h $Mysql_host -p$Mysql_Paswd -Bse 'show databases')"

for db in $DBS
do
    skipdb=-1
    if [ "$IGGY" != "" ];
    then
        for i in $IGGY
        do
            [ "$db" == "$i" ] && skipdb=1 || :
        done
    fi

    if [ "$skipdb" == "-1" ] ; then
        FILE="$DEST_mysql/$db.$NOW.gz"
        # On boucle, et on dump toutes les bases et on les compresse
        $MYSQLDUMP -u $Mysql_User -h $Mysql_host -p$Mysql_Paswd $db | $GZIP -9 > $FILE
    fi
done


#BACKUP des bases mysql par FTP
#nbre de jour de backup a conserver
j=7
j_a_delete=$(date +%d-%m-%Y --date "$j days ago")

## Conf des rep de backup pour le ftp
DIR_BACKUP_mysql=$DEST_mysql
DIR_DIST_BACKUP_mysql='/BACKUP/mysql/'

#Configuration de pass ftp
loginftp="login"
motdepassftp="pass"
host_ftp="dedibackup.dedibox.fr"

## Upload sur le ftp
yafc $loginftp:$motdepassftp@$host_ftp <<**
cd $DIR_DIST_BACKUP_mysql
lcd $DIR_BACKUP_mysql
mkdir $NOW
cd $NOW
put -r *
cd ..
rm -r $j_a_delete
bye
**

#On delete tout
cd $DEST_mysql
rm -r *

Enregistrez ensuite le fichier et donnez lui des droits d'execution:

chmod u+x /cron/script_backup_mysql.sh

Et voila, il ne vous reste plus qu'a mettre ceci dans une tache cron

crontab -e

Puis ajoutez ceci

34 06 * * * /cron/backup-mysql-ftp.sh >> /cron/save-mysql.log

Pour que votre script soit executé chaque jour à 6h34, et le log sauvé dans /cron/save-mysql.log ( à créer) 😉

Linux effacer tous sauf un dossier ou un fichier

Juste une petite commande pour laquelle j’ai bien galerer:

find . -maxdepth 1 -not -name celui_la_on_efface_pas -exec rm -rf ‘{}’ \;

Biensur remplacer celui_la_on_efface_pas par le dossier ou le fichier que vous voulez garder 😉

Log ssh et bruteforce, iptables, interdire root

L’emplacemment de vox log ssh est /var/log/auth.log.

Pour avoir une petite analyse, faites un petit

nano /var/log/auth.log

Si comme moi vous avez de jolis log du genre:

Sep 3 16:19:29 sd-4145 sshd[23909]: Illegal user aleksandra from 88.191.11.198
Sep 3 16:19:29 sd-4145 sshd[23911]: Illegal user aleksandra from 88.191.11.198
Sep 3 16:19:29 sd-4145 sshd[23913]: Illegal user aleksandra from 88.191.11.198
Sep 3 16:19:30 sd-4145 sshd[23929]: Illegal user alenka from 88.191.11.198
Sep 3 16:19:30 sd-4145 sshd[23931]: Illegal user alenka from 88.191.11.198
Sep 3 16:19:30 sd-4145 sshd[23933]: Illegal user alenka from 88.191.11.198

Ba inquietez vous, on essai de vous brutforcer, donc dans ce cas, un petit abuse est de rigueure pour l’ip en question.

On peut aussi parer à ce genre d’attaque par une petit regle iptables:

iptables -I INPUT -s 88.191.11.198 -j DROP

ou:

iptables -A INPUT -p tcp –dport ssh -m recent –update –seconds 60 –hitcount 4 –name SSH -j DROP
iptables -A INPUT -p tcp –dport ssh -m recent –set –name SSH
iptables -A INPUT -p tcp –dport ssh -j ACCEPT

Qui bloque celui qui tente de se connecter plus de 4 fois en 60 sec en ssh 😉

Une autre très bonne solution est de changer le port de ssh

nano /etc/ssh/sshd_config

Et changer la ligne port 22
et relancez ssh:

/etc/init.d/ssh reload

Il y a aussi les trucs du genre failtoban.

Sans oublier biensur de ne pas autoriser l’acces ssh par root :
dans /etc/ssh/sshd_config

PermitRootLogin no  #changez yes en no

et relancez ssh:

/etc/init.d/ssh reload

Voila 😉