Skocz do zawartości

Forum a pozycjonowanie


Rekomendowane odpowiedzi

Powiedzmy że mamy(prowadzimy) forum komercyjne w phpbb które jest gęsto odwiedzane czy można skorzystać z niego w jakiś sposób do pozycjonowania innych stron czy to utopia.

Pozdrawiam

Firmę w Polsce utrzymuje czynną od 1997 roku w Hamburgu od 2008 Roku więc nie robią na mnie wrażenia awatary i linki w stopce. Zajmuje się od zarania początków Black Hat Seo. Mam prawo do zapomnienia. Niech się firma Google zajmie sztuczną inteligencją zanim  Sam Altman ich wyprzedzi :) Moje stare konto https://www.forum.optymalizacja.com/profile/21-kill-bill/  :( boże jaki młody byłem i głupi. Wróciłem i wchodzę z drzwiami nie drzwiami.

Odnośnik do komentarza
Udostępnij na innych stronach

a jesli mozna spytac wy korzystacie z jakis modyfikacji phpbb 

pytam dlatego ze do topicow konkretnych generowane sa dokumenty .html z tego co sie orientuje w klasycznym phpbb tego nie ma ?? 

a dzieki temu wasze forum jest bardzo robot friendly

Jak najbardziej, jeśli chcesz to Ci dam kod do zmian. Mamy static urls i session killer.

Odnośnik do komentarza
Udostępnij na innych stronach

Jak najbardziej, jeśli chcesz to Ci dam kod do zmian. Mamy static urls i session killer.

faktycznie ciekawa myśl... zastanawiam się nad wprowadzeniem phpBB (jestem w fazie testów) i myślę, że takie zamienianie na zwykły html dobrze zrobi :)

a co daje session killer?

Odnośnik do komentarza
Udostępnij na innych stronach

static urls

W pliku includes/page_header.php znajdź:

ob_start();

i zamień na:

ob_start();

function replace_for_mod_rewrite(&$s)

{

$urlin =

array(

"'(?<!/)viewforum.php?f=([0-9]*)&(?:amp;)topicdays=([0-9]*)&(?:amp;)start=([0-9]*)'",

"'(?<!/)viewforum.php?f=([0-9]*)&(?:amp;)mark=topics'",

"'(?<!/)viewforum.php?f=([0-9]*)'",

"'(?<!/)viewtopic.php?t=([0-9]*)&(?:amp;)view=previous'",

"'(?<!/)viewtopic.php?t=([0-9]*)&(?:amp;)view=next'",

"'(?<!/)viewtopic.php?t=([0-9]*)&(?:amp;)postdays=([0-9]*)&(?:amp;)postorder=([a-zA-Z]*)&(?:amp;)start=([0-9]*)'",

"'(?<!/)viewtopic.php?t=([0-9]*)&(?:amp;)start=([0-9]*)&(?:amp;)postdays=([0-9]*)&(?:amp;)postorder=([a-zA-Z]*)&(?:amp;)highlight=([a-zA-Z0-9]*)'",

"'(?<!/)viewtopic.php?t=([0-9]*)&(?:amp;)start=([0-9]*)'",

"'(?<!/)viewtopic.php?t=([0-9]*)'",

"'(?<!/)viewtopic.php&(?:amp;)p=([0-9]*)'",

"'(?<!/)viewtopic.php?p=([0-9]*)'",

);

$urlout = array(

"viewforum1-2-3.html",

"forum1.html",

"forum1.html",

"ptopic1.html",

"ntopic1.html",

"ftopic1-2-3-4.html",

"ftopic1.html",

"ftopic1-2.html",

"ftopic1.html",

"sutra1.html",

"sutra1.html",

);

$s = preg_replace($urlin, $urlout, $s);

return $s;

}

W pliku includes/page_tail.php znajdź

$db->sql_close();

i dodaj pod tym:

$contents = ob_get_contents();

ob_end_clean();

echo replace_for_mod_rewrite($contents);

global $dbg_starttime;

w tym samym pliku znajdź:


$gzip_contents = ob_get_contents();

       ob_end_clean();

i zamień na

$gzip_contents = ob_get_contents();

       ob_end_clean();

echo replace_for_mod_rewrite($contents);

global $dbg_starttime;

W pliku .htaccess (jeżeli nie istnieje ten plik to go stwórz i umieść w root:

RewriteEngine On

Options +FollowSymlinks

RewriteRule ^phpbb2/forums.* /phpbb2/index.php

RewriteRule ^phpbb2/forum([0-9]*).* /phpbb2/viewforum.php?f=$1&mark=topic

RewriteRule ^phpbb2/viewforum([0-9]*)-([0-9]*)-([0-9]*).* phpbb2/viewforum.php?f=$1&topicdays=$2&start=$3

RewriteRule ^phpbb2/forum([0-9]*).* phpbb2/viewforum.php?f=$1

RewriteRule ^phpbb2/ptopic([0-9]*).* phpbb2/viewtopic.php?t=$1&view=previous

RewriteRule ^phpbb2/ntopic([0-9]*).* phpbb2/viewtopic.php?t=$1&view=next

RewriteRule ^phpbb2/ftopic([0-9]*)-([0-9]*)-([a-zA-Z]*)-([0-9]*).* phpbb2/viewtopic.php?t=$1&postdays=$2&postorder=$3&start=$4

RewriteRule ^phpbb2/ftopic([0-9]*)-([0-9]*).* phpbb2/viewtopic.php?t=$1&start=$2

RewriteRule ^phpbb2/ftopic([0-9]*).* phpbb2/viewtopic.php?t=$1

RewriteRule ^phpbb2/ftopic([0-9]*).html phpbb2/viewtopic.php?t=$1&start=$2&postdays=$3&postorder=$4&highlight=$5

RewriteRule ^phpbb2/sutra([0-9]*).* phpbb2/viewtopic.php?p=$1

.htaccess może potrzebować zmianm w zależności gdzie masz zainstalowane forum i od ustawień twojego serwera.

session killer

to nie dodaje session id jeżeli na forum wchodzi robot z list. Do listy można dodawać więcej robotów.

W pliku includes/sessions.php znajdź:

function append_sid($url, $non_html_amp = false)

i zamień wszystko od tego miejsca na:

function append_sid($url, $non_html_amp = false)

{

       global $SID;



       if ( !empty($SID) && !eregi('sid=', $url) && !areyouabot()  )

       {

           if ( !empty($SID) && !eregi('sid=', $url) )        {

               $url .= ( ( strpos($url, '?') != false ) ?  ( ( $non_html_amp ) ? '&' : '&' ) : '?' ) . $SID;

           }

       }

       return($url);

}

function areyouabot()

{

global $HTTP_SERVER_VARS;

       $RobotsList = array (

       "antibot",

       "appie",

       "architext",

       "bjaaland",

       "digout4u",

       "echo",

       "fast-webcrawler",

       "ferret",

       "googlebot",

       "gulliver",

       "harvest",

       "htdig",

       "ia_archiver",

       "jeeves",

       "jennybot",

       "linkwalker",

       "lycos",

       "mercator",

       "moget",

       "muscatferret",

       "myweb",

       "netcraft",

       "nomad",

       "petersnews",

       "scooter",

       "slurp",

       "unlost_web_crawler",

       "voila",

       "voyager",

       "webbase",

       "weblayers",

       "wget",

       "wisenutbot",

       "acme.spider",

       "ahoythehomepagefinder",

       "alkaline",

       "arachnophilia",

       "aretha",

       "ariadne",

       "arks",

       "aspider",

       "atn.txt",

       "atomz",

       "auresys",

       "backrub",

       "bigbrother",

       "blackwidow",

       "blindekuh",

       "bloodhound",

       "brightnet",

       "bspider",

       "cactvschemistryspider",

       "cassandra",

       "cgireader",

       "checkbot",

       "churl",

       "cmc",

       "collective",

       "combine",

       "conceptbot",

       "coolbot",

       "core",

       "cosmos",

       "cruiser",

       "cusco",

       "cyberspyder",

       "deweb",

       "dienstspider",

       "digger",

       "diibot",

       "directhit",

       "dnabot",

       "download_express",

       "dragonbot",

       "dwcp",

       "e-collector",

       "ebiness",

       "eit",

       "elfinbot",

       "emacs",

       "emcspider",

       "esther",

       "evliyacelebi",

       "nzexplorer",

       "fdse",

       "felix",

       "fetchrover",

       "fido",

       "finnish",

       "fireball",

       "fouineur",

       "francoroute",

       "freecrawl",

       "funnelweb",

       "gama",

       "gazz",

       "gcreep",

       "getbot",

       "geturl",

       "golem",

       "grapnel",

       "griffon",

       "gromit",

       "hambot",

       "havindex",

       "hometown",

       "htmlgobble",

       "hyperdecontextualizer",

       "iajabot",

       "ibm",

       "iconoclast",

       "ilse",

       "imagelock",

       "incywincy",

       "informant",

       "infoseek",

       "infoseeksidewinder",

       "infospider",

       "inspectorwww",

       "intelliagent",

       "irobot",

       "iron33",

       "israelisearch",

       "javabee",

       "jbot",

       "jcrawler",

       "jobo",

       "jobot",

       "joebot",

       "jubii",

       "jumpstation",

       "katipo",

       "kdd",

       "kilroy",

       "ko_yappo_robot",

       "labelgrabber.txt",

       "larbin",

       "legs",

       "linkidator",

       "linkscan",

       "lockon",

       "logo_gif",

       "macworm",

       "magpie",

       "marvin",

       "mattie",

       "mediafox",

       "merzscope",

       "meshexplorer",

       "mindcrawler",

       "momspider",

       "monster",

       "motor",

       "msnbot",

       "yahoo! slurp",

       "mwdsearch",

       "netcarta",

       "netmechanic",

       "netscoop",

       "newscan-online",

       "nhse",

       "northstar",

       "occam",

       "octopus",

       "openfind",

       "orb_search",

       "packrat",

       "pageboy",

       "parasite",

       "patric",

       "pegasus",

       "perignator",

       "perlcrawler",

       "phantom",

       "piltdownman",

       "pimptrain",

       "pioneer",

       "pitkow",

       "pjspider",

       "pka",

       "plumtreewebaccessor",

       "poppi",

       "portalb",

       "puu",

       "python",

       "raven",

       "rbse",

       "resumerobot",

       "rhcs",

       "roadrunner",

       "robbie",

       "robi",

       "robofox",

       "robozilla",

       "roverbot",

       "rules",

       "safetynetrobot",

       "search_au",

       "searchprocess",

       "senrigan",

       "sgscout",

       "shaggy",

       "shaihulud",

       "sift",

       "simbot",

       "site-valet",

       "sitegrabber",

       "sitetech",

       "slcrawler",

       "smartspider",

       "snooper",

       "solbot",

       "spanner",

       "speedy",

       "spider_monkey",

       "spiderbot",

       "spiderline",

       "spiderman",

       "spiderview",

       "spry",

       "ssearcher",

       "suke",

       "suntek",

       "sven",

       "tach_bw",

       "tarantula",

       "tarspider",

       "techbot",

       "templeton",

       "teoma_agent1",

       "titin",

       "titan",

       "tkwww",

       "tlspider",

       "ucsd",

       "udmsearch",

       "urlck",

       "valkyrie",

       "victoria",

       "visionsearch",

       "vwbot",

       "w3index",

       "w3m2",

       "wallpaper",

       "wanderer",

       "wapspider",

       "webbandit",

       "webcatcher",

       "webcopy",

       "webfetcher",

       "webfoot",

       "weblinker",

       "webmirror",

       "webmoose",

       "webquest",

       "webreader",

       "webreaper",

       "websnarf",

       "webspider",

       "webvac",

       "webwalk",

       "webwalker",

       "webwatch",

       "whatuseek",

       "whowhere",

       "wired-digital",

       "wmir",

       "wolp",

       "wombat",

       "worm",

       "wwwc",

       "wz101",

       "xget",

       "awbot",

       "bobby",

       "boris",

       "bumblebee",

       "cscrawler",

       "daviesbot",

       "ezresult",

       "gigabot",

       "gnodspider",

       "internetseer",

       "justview",

       "linkbot",

       "linkchecker",

       "nederland.zoek",

       "perman",

       "pompos",

       "psbot",

       "redalert",

       "shoutcast",

       "slysearch",

       "ultraseek",

       "webcompass",

       "yandex",

       "robot",

       "crawl"

       );

       $botID = strtolower($HTTP_SERVER_VARS['HTTP_USER_AGENT']);

       for ($i = 0; $i < count($RobotsList); $i++)

       {

               if ( strstr($botID, $RobotsList[$i]) )

               {

                       return TRUE;

               }

       }

       return FALSE;



}

Odnośnik do komentarza
Udostępnij na innych stronach

jaka funkcje pelni ta tablica z nazwami robotow ?? 

bo zastanawiam sie czy nie warto dodac tam np polskich robotow ??

Jak najbardziej warto i nawet trzeba. Funkcje pełni taką, że jeżeli user-agent jest zawart w liście to session id nie będzie dodany.

Jak zrobisz listę polskich robotów, to fajnie by było gdybyś mógł ją tutaj podać.

Odnośnik do komentarza
Udostępnij na innych stronach

jako ze nie mam pewnosci co do nazw robotow dokladnie tego co bedzie potrzebne do stworzenia poprawnego kodu podaje za logami serwera

https://stats.rsi.pl/www.ucet.pl/agent_200305.html

Szukacz== szukacz

przedstawia sie calkowicie tak

Szukacz/1.5 (robot; www.szukacz.pl/jakdzialarobot.html; info@

NETOSKOP == netoskop

przedstawia sie po prostu

netoskop

GOORU == Gooru-WebSpider

przedstawia sie

Gooru-WebSpider/1.0 (Linux; PI)

NETSPRINT == NetSprint

przedstawia sie

NetSprint -- 2.0

ONET == Inktomi lub onet :)

przedstawia sie

Inktomi.search.onet.9 ->tutaj cyferki sie zmieniaja oczywiscie

podaje za

https://stats.zgo.serwery.pl/zgo.pl/agent_200403.html

poniezej zamieszczam moja interpretacje zmian w kodzie

nie wiem czy dobrze zrozumialem jak to dziala ??


global $HTTP_SERVER_VARS; 

       $RobotsList = array ( 

// polskie roboty

       "szukacz",

       "netoskop",

//gooru

       "gooru",

       "webspider", 

// onet        

       "onet",

       "inktomi",

// netsprint

       "netsprint",

//koniec polskich robotow

       "antibot", 

       "appie", 

       "architext", 

       "bjaaland", 

       "digout4u", 

       "echo", 

       "fast-webcrawler", 

       "ferret", 

       "googlebot", 

       "gulliver", 

       "harvest", 

       "htdig", 

       "ia_archiver", 

       "jeeves", 

       "jennybot", 

       "linkwalker", 

       "lycos", 

       "mercator", 

       "moget", 

       "muscatferret", 

       "myweb", 

       "netcraft", 

       "nomad", 

       "petersnews", 

       "scooter", 

       "slurp", 

       "unlost_web_crawler", 

       "voila", 

       "voyager", 

       "webbase", 

       "weblayers", 

       "wget", 

       "wisenutbot", 

       "acme.spider", 

       "ahoythehomepagefinder", 

       "alkaline", 

       "arachnophilia", 

       "aretha", 

       "ariadne", 

       "arks", 

       "aspider", 

       "atn.txt", 

       "atomz", 

       "auresys", 

       "backrub", 

       "bigbrother", 

       "blackwidow", 

       "blindekuh", 

       "bloodhound", 

       "brightnet", 

       "bspider", 

       "cactvschemistryspider", 

       "cassandra", 

       "cgireader", 

       "checkbot", 

       "churl", 

       "cmc", 

       "collective", 

       "combine", 

       "conceptbot", 

       "coolbot", 

       "core", 

       "cosmos", 

       "cruiser", 

       "cusco", 

       "cyberspyder", 

       "deweb", 

       "dienstspider", 

       "digger", 

       "diibot", 

       "directhit", 

       "dnabot", 

       "download_express", 

       "dragonbot", 

       "dwcp", 

       "e-collector", 

       "ebiness", 

       "eit", 

       "elfinbot", 

       "emacs", 

       "emcspider", 

       "esther", 

       "evliyacelebi", 

       "nzexplorer", 

       "fdse", 

       "felix", 

       "fetchrover", 

       "fido", 

       "finnish", 

       "fireball", 

       "fouineur", 

       "francoroute", 

       "freecrawl", 

       "funnelweb", 

       "gama", 

       "gazz", 

       "gcreep", 

       "getbot", 

       "geturl", 

       "golem", 

       "grapnel", 

       "griffon", 

       "gromit", 

       "hambot", 

       "havindex", 

       "hometown", 

       "htmlgobble", 

       "hyperdecontextualizer", 

       "iajabot", 

       "ibm", 

       "iconoclast", 

       "ilse", 

       "imagelock", 

       "incywincy", 

       "informant", 

       "infoseek", 

       "infoseeksidewinder", 

       "infospider", 

       "inspectorwww", 

       "intelliagent", 

       "irobot", 

       "iron33", 

       "israelisearch", 

       "javabee", 

       "jbot", 

       "jcrawler", 

       "jobo", 

       "jobot", 

       "joebot", 

       "jubii", 

       "jumpstation", 

       "katipo", 

       "kdd", 

       "kilroy", 

       "ko_yappo_robot", 

       "labelgrabber.txt", 

       "larbin", 

       "legs", 

       "linkidator", 

       "linkscan", 

       "lockon", 

       "logo_gif", 

       "macworm", 

       "magpie", 

       "marvin", 

       "mattie", 

       "mediafox", 

       "merzscope", 

       "meshexplorer", 

       "mindcrawler", 

       "momspider", 

       "monster", 

       "motor", 

       "msnbot", 

       "yahoo! slurp", 

       "mwdsearch", 

       "netcarta", 

       "netmechanic", 

       "netscoop", 

       "newscan-online", 

       "nhse", 

       "northstar", 

       "occam", 

       "octopus", 

       "openfind", 

       "orb_search", 

       "packrat", 

       "pageboy", 

       "parasite", 

       "patric", 

       "pegasus", 

       "perignator", 

       "perlcrawler", 

       "phantom", 

       "piltdownman", 

       "pimptrain", 

       "pioneer", 

       "pitkow", 

       "pjspider", 

       "pka", 

       "plumtreewebaccessor", 

       "poppi", 

       "portalb", 

       "puu", 

       "python", 

       "raven", 

       "rbse", 

       "resumerobot", 

       "rhcs", 

       "roadrunner", 

       "robbie", 

       "robi", 

       "robofox", 

       "robozilla", 

       "roverbot", 

       "rules", 

       "safetynetrobot", 

       "search_au", 

       "searchprocess", 

       "senrigan", 

       "sgscout", 

       "shaggy", 

       "shaihulud", 

       "sift", 

       "simbot", 

       "site-valet", 

       "sitegrabber", 

       "sitetech", 

       "slcrawler", 

       "smartspider", 

       "snooper", 

       "solbot", 

       "spanner", 

       "speedy", 

       "spider_monkey", 

       "spiderbot", 

       "spiderline", 

       "spiderman", 

       "spiderview", 

       "spry", 

       "ssearcher", 

       "suke", 

       "suntek", 

       "sven", 

       "tach_bw", 

       "tarantula", 

       "tarspider", 

       "techbot", 

       "templeton", 

       "teoma_agent1", 

       "titin", 

       "titan", 

       "tkwww", 

       "tlspider", 

       "ucsd", 

       "udmsearch", 

       "urlck", 

       "valkyrie", 

       "victoria", 

       "visionsearch", 

       "vwbot", 

       "w3index", 

       "w3m2", 

       "wallpaper", 

       "wanderer", 

       "wapspider", 

       "webbandit", 

       "webcatcher", 

       "webcopy", 

       "webfetcher", 

       "webfoot", 

       "weblinker", 

       "webmirror", 

       "webmoose", 

       "webquest", 

       "webreader", 

       "webreaper", 

       "websnarf", 

       "webspider", 

       "webvac", 

       "webwalk", 

       "webwalker", 

       "webwatch", 

       "whatuseek", 

       "whowhere", 

       "wired-digital", 

       "wmir", 

       "wolp", 

       "wombat", 

       "worm", 

       "wwwc", 

       "wz101", 

       "xget", 

       "awbot", 

       "bobby", 

       "boris", 

       "bumblebee", 

       "cscrawler", 

       "daviesbot", 

       "ezresult", 

       "gigabot", 

       "gnodspider", 

       "internetseer", 

       "justview", 

       "linkbot", 

       "linkchecker", 

       "nederland.zoek", 

       "perman", 

       "pompos", 

       "psbot", 

       "redalert", 

       "shoutcast", 

       "slysearch", 

       "ultraseek", 

       "webcompass", 

       "yandex", 

       "robot", 

       "crawl" 

       );

Check email deliverability tool Maildog

 

Odnośnik do komentarza
Udostępnij na innych stronach

wracając do tego HTML...

wprowadziłem wszystkie zmiany,

utworzyłem .htaccess (tak się ten plik ma nazywać? bez rozszerzenia?)

a mimo to nie zamienia na htmle i w ogonie strony pokazuje:

Fatal error: Call to undefined function: replace_for_mod_rewrite() in /Bartek/forum/includes/page_tail.php on line 51

co powinienem zmienić w htaccess? bo zmieniłem "phpBB2" na "Bartek/forum"

a może powinienem "forum"?

proszę o pomoc

Odnośnik do komentarza
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
  • Ostatnio przeglądający   0 użytkowników

    • Brak zarejestrowanych użytkowników przeglądających tę stronę.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę. Warunki użytkowania Polityka prywatności