Htaccess tippek

Indította Fantasy™, 2016-05-04, 08:34:50

1.htpasswd
Ez tartalmazza majd a felhasználókat és a hozzájuk tartozó jelszavakat. A .htpasswd fájl létrehozható ezzel a webes programmal: .htpasswd generátor
Az eredményt el kell menteni egy .htpasswd fájlba, majd felölteni a tárhely védeni kívánt mappájába.
2.
Ez a fájl aktiválja a jelszavas védelmet.
Pl. Jegyzettömb segítségével készíts egy .htaccess nevű fájlt, aminek a tartalma ez legyen:
AuthUserFile /home/ftp-felhasznalo-nevem/public_html/en-konyvtaram/.htpasswd
AuthName "Védett terület"
AuthType Basic
Require valid-user

-------------------------------------------------------------------------------------------------------------------------------------
Minden POST típusú kérés tiltása:
RewriteCond %{REQUEST_METHOD} POST
RewriteRule .* - [F,L]


-------------------------------------------------------------------------------------------------------------------------------------
Ártalmas robotok tiltása

Gonosz vagy ,,etikus hekkerek" néhány perc alatt készítenek céljaik végrehajtását teljesítő robotokat. Miután feladataikat teljesítették, többségük nyomtalanul eltűnik, de elég sok továbbterjed, miközben nem tudható milyen irányban fejlődik.

htaccess végére ragd be:
# bad robots:

RewriteCond %{HTTP_HOST} ^http://(www\.)?images\.linuxidx\.com [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (^gvfs|libwww-perl|Python|Wget|^$|Zend_Http_Client|curl) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (Mail\.Ru|RoboFox|Top\Secret|Extractor|Ezooms|CCCP|MetaGeneratorCrawler|Typhoeus|EventMachine|TalkTalk) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (XR2\.exe|xpymep\.exe|TurnitinBot|oBot|CMS) [NC,OR]
RewriteCond %{HTTP_REFERER} ^-$ [OR]
RewriteCond %{HTTP_REFERER} ^$
RewriteRule ^(.*)$ - [F]


---------------------------------------------------------------------------------------------------------------------------------------

robots.txt fájl elrejtése!
A robots.txt fájl jelenlétének eredetileg az volt az értelme, hogy korlátozza a keresőrobotok hozzáférést a webhely bizonyos tartalmához. A keresőrobotoknak legelőször ellenőrizni kellene a robots.txt fájl jelenlétét, és betartani annak utasításait. Eddig a mese része... A valóságban majd mindenki megkerüli, mégpedig a User agent karakterláncban szokványos böngészőként azonosítva magát. Az InterMatrix.hu naplózási adataiból az IP cím, Host név és User agent adatok ismeretében a robots.txt fájl utasításait időnként a Bing, MSN, Yahoo, Bajdu, Yandex sem vette figyelembe.

Mindamellett, hogy a robots.txt jelenléte alig hatásos, tartalma bárki számára hozzáférhető és ezáltal, mintegy útmutatást ad a kényes tartalmak hollétéről. Láthatatlanná tenni úgy tudjuk, hogy a hozzáférést csak annak engedélyezzük, akiben megbízunk.

htaccess végére ragd be:

# hide robots.txt

<Files robots.txt>
    Order Deny,Allow
    Deny from All
    Allow from googlebot.com google.com google-analytics.com
</Files>


---------------------------------------------------------------------------------------------------------------------------------------

Folytatás hamarosan....  :)