Utilizarea comenzii cURL în PowerShell

cURL(Client URL) este un instrument clasic de linie de comandă *nix pentru lucrul cu cererile URL. Acesta permite trimiterea de cereri HTTP/HTTP, descărcarea sau trimiterea unui fișier către server, accesarea API, autentificarea la un serviciu web etc.

Este frecvent ca utilizatorii Windows să confunde comanda cURL cu cmdlet-ul Invoke-WebRequest. Problema este că, înainte de PowerShell Core 6.x, comanda cURL din PowerShell era un alias pentru cmdlet-ul Invoke-WebRequest.

În PowerShell Core 6.x și 7.x, comanda cURL rulează instrumentul C:\Windows\system32\curl.exe. Începând cu Windows 10 1803 și Windows Server 2019, comanda curl.exe este disponibilă implicit(pentru versiunile anterioare de Windows, puteți descărca manual cURL de la următorul link https://curl.se/windows/).

Pentru a verifica daca curl este instalat si pentru a verifica versiunea:

curl -V

Dacă nu funcționeaza sau vi se solicită parametrii suplimentari, folositi următoarea comandă în Powershell:

Remove-Item Alias:\curl

Sintaxa cmdletului Invoke-WebRequest și a utilitarului cURL.exe sunt foarte diferite. Dacă sunteți obișnuit să utilizați comanda cURL într-un mediu Linux, s-ar putea să vi se pară dificil să traduceți comenzile familiare în sintaxa PowerShell.

[mai mult...]

Fix open() Critical Error : 13: Permission denied – Upload Images Error in WordPress

WordPress este un sistem foarte flexibil ce permite utilizatorilor sa creeze foarte rapid de la un simplu blog la un website avansat de prezentare sau un magazin online. Ca orice sistem insa, nu este lipsit de probleme. De cele mai multe ori, ofertele de web hosting sunt optimizate fie pentru un numar mic de utilizatori, fie nu sunt configurate dupa nevoile utilizatorilor. Pentru un website avansat creat pe WordPress recomandam sa se foloseasca servere dedicate cu servicii configurate special pentru WordPress.

[mai mult...]

Cum blochezi accesul SeekportBot sau altor crawl bots la un website

De cele mai multe ori, atunci cand ai nevoie sa blochezi accesul SeekportBot sau altor crawl bots la un website, motivele sunt simple. Spider-ul web face prea multe accesari intr-o perioada scurta de timp si solicita resursele web serverului, fie provine de la un motor de cautare in care nu doresti ca website-ul tau sa fie indexat.

Acesti spideri web sunt conceputi pentru a explora, procesa si indexa continutul paginlor web in motoare de cautare. Google si Bing folosesc astfel de crawl bots. Sunt insa si motoare de cautare care folosesc roboti pentru culegerea de date de pe pagini web. Seekport este unul dintre aceste motoare de cautare, care foloseste crawler-ul SeekportBot pentru indexarea paginilor web. Din pacate, il foloseste uneori intr-un mod excesiv si face trafic inutil.

[mai mult...]