"Stručně řečeno: výhoda statických stránek je ta, že je vyhledávače raději indexují."
Pro tohle tvrzení bych chtěl vidět nějaký důkaz - podle mých zkušeností jsou si statické a dynamické stránky za jinak stejných podmínek (délka URL, parametry, HTTP hlavičky) rovnocenné.
"I když se zpracování dynamických stránek pohybuje většinou v setinách sekund, vyhledávač pozná, že se nejedná o statické HTML stránky, kterým přikládá větší váhu než dynamickým."
Penalizace odezvy o několik setin sekundy delší je podle mě úplný nesmysl. Má autor k dispozici výsledky nějakého experimentu, který by toto dokazoval?
"Ještě horší ale je, že roboti neradi čekají na zpracování vašich stránek. Pokud je doba odpovědi příliš velká, bere robot stránku jako nedostupnou. Pochopte, roboti prohledávají miliardy stránek. Kdyby měli na každou čekat, byli by velmi pomalí."
Například služba Jyxo Články akceptuje odpověď zdroje do 20 vteřin. Roboti jsou co do doby odezvy ještě tolerantnější než uživatelé.
"Vyhněte se tedy volání SELECT * a místo toho přesně pojmenujte všechny sloupce, které chcete získat."
Obecně dobrá rada, ale na výsledné rychlosti skriptu se to projeví v drtivé většině případů minimálně (nebo má autor nějaká reálná čísla svědčící o opaku?) a z hlediska vyhledávačů to je naprosto bezvýznamné.
"Pro optimalizaci cyklů zvažte použití zdvojeného kódu místo cyklů, které se příliš mnohokrát neopakují."
Opět naprosto minimální rozdíl v rychlosti, naopak daleko méně přehledný kód.
Myslím, že optimalizace dotazů by se měla odehrávat někde jince, než vyjmenováním sloupců. Praktika je to celkem chválihodná, ale může jen nepatrně snížit objem přenášených dat. Naopak opravdová optimalizace spočívá v dobrém návrhu databáze (chtěl bych věřit, že autor o normálních formách někdy slyšel:-) a správném použití indexů. Kdo pustí %LIKE% na tabulku s milionem záznamů, ten to vyjmenováním sloupců nezachrání.
A to s tím COPY & PASTE místo cyklu, to je __naprostá hovadina__. Za prvé je to naprosto neslučitelné se zásadami softwarového inženýrství (zmínkou o SWI autorovi fandím, je to proti zásadám programování vůbec). Je to špatný kód, který by neprošel u nikoho, kdo programovat umí.
Za druhé to k urychlení stejně nepovede, protože se musí parsovat víc zdrojáku, načítat víc zdrojáku z disku atp :-)) Nehledě k tomu, samozřejmě, že teoretické úspory jsou v nanosekundách.