Linux

Server Web 146 Solutii

Fix open() Critical Error : 13: Permission denied – Upload Images Error in WordPress

WordPress este un sistem foarte flexibil ce permite utilizatorilor sa creeze foarte rapid de la un simplu blog la un website avansat de prezentare sau un magazin online. Ca orice sistem insa, nu este lipsit de probleme. De cele mai multe ori, ofertele de web hosting sunt optimizate fie pentru un numar mic de utilizatori, fie nu sunt configurate dupa nevoile utilizatorilor. Pentru un website avansat creat pe WordPress recomandam sa se foloseasca servere dedicate cu servicii configurate special pentru WordPress.

[mai mult...]

Cum inlocuim FirewallD cu iptables pe CentOS 7

Atacuri cu boti si aplicatii malware asupra website-urilor sunt la ordinea zilei, iar companiile care ofera solutii de securitate incearca din rasputeri sa tina pasul si sa faca fata provocarilor de zi cu zi.
Pe langa aplicatiile software complexe capabile sa identifice, sa analizeze si sa blocheze in mod automat atacurile informatice asupra unui web server, mai sunt si solutii manuale prin care IP-urile atacurilor pot fi blocate.

Incepand cu CentOS 7 a fost introdus implicit FirewallD ca sistem utilitar de administrare pentru firewall.
FirewallD este o solutie completa de firewall ce poata fi configurata si rulata prin linii de comanda firewall-cmd. Nu toti administratorii de servere sunt insa familiarizati cu sintaxele FirewallD si prefera iptables in locul acestui utilitar.

[mai mult...]

Cum blochezi accesul SeekportBot sau altor crawl bots la un website

De cele mai multe ori, atunci cand ai nevoie sa blochezi accesul SeekportBot sau altor crawl bots la un website, motivele sunt simple. Spider-ul web face prea multe accesari intr-o perioada scurta de timp si solicita resursele web serverului, fie provine de la un motor de cautare in care nu doresti ca website-ul tau sa fie indexat.

Acesti spideri web sunt conceputi pentru a explora, procesa si indexa continutul paginlor web in motoare de cautare. Google si Bing folosesc astfel de crawl bots. Sunt insa si motoare de cautare care folosesc roboti pentru culegerea de date de pe pagini web. Seekport este unul dintre aceste motoare de cautare, care foloseste crawler-ul SeekportBot pentru indexarea paginilor web. Din pacate, il foloseste uneori intr-un mod excesiv si face trafic inutil.

[mai mult...]