Jump to content
kill bill

Forum a pozycjonowanie

Recommended Posts

Powiedzmy że mamy(prowadzimy) forum komercyjne w phpbb które jest gęsto odwiedzane czy można skorzystać z niego w jakiś sposób do pozycjonowania innych stron czy to utopia.

Pozdrawiam


Moj Blog czyli goło i wesoło ale czasem bardzo powaznie :D Wreszcie sobie popiszę to czego nie moge na forum :)

Share this post


Link to post
Share on other sites

a jesli mozna spytac wy korzystacie z jakis modyfikacji phpbb

pytam dlatego ze do topicow konkretnych generowane sa dokumenty .html z tego co sie orientuje w klasycznym phpbb tego nie ma ??

a dzieki temu wasze forum jest bardzo robot friendly

Share this post


Link to post
Share on other sites
a jesli mozna spytac wy korzystacie z jakis modyfikacji phpbb 

pytam dlatego ze do topicow konkretnych generowane sa dokumenty .html z tego co sie orientuje w klasycznym phpbb tego nie ma ?? 

a dzieki temu wasze forum jest bardzo robot friendly

Jak najbardziej, jeśli chcesz to Ci dam kod do zmian. Mamy static urls i session killer.

Share this post


Link to post
Share on other sites
a co daje session killer?

Usuwa identyfikator sesji z urla, dzięki czemu roboty są bardziej skłonne do zindeksowania strony.

Piszę 'bardziej skłonne', bo Google indeksuje także adresy zawierające id sesji, jednak z o wiele mniejszym prawdopodobieństwem.

Share this post


Link to post
Share on other sites

static urls

W pliku includes/page_header.php znajdź:

ob_start();

i zamień na:

ob_start();

function replace_for_mod_rewrite(&$s)

{

$urlin =

array(

"'(?<!/)viewforum.php?f=([0-9]*)&(?:amp;)topicdays=([0-9]*)&(?:amp;)start=([0-9]*)'",

"'(?<!/)viewforum.php?f=([0-9]*)&(?:amp;)mark=topics'",

"'(?<!/)viewforum.php?f=([0-9]*)'",

"'(?<!/)viewtopic.php?t=([0-9]*)&(?:amp;)view=previous'",

"'(?<!/)viewtopic.php?t=([0-9]*)&(?:amp;)view=next'",

"'(?<!/)viewtopic.php?t=([0-9]*)&(?:amp;)postdays=([0-9]*)&(?:amp;)postorder=([a-zA-Z]*)&(?:amp;)start=([0-9]*)'",

"'(?<!/)viewtopic.php?t=([0-9]*)&(?:amp;)start=([0-9]*)&(?:amp;)postdays=([0-9]*)&(?:amp;)postorder=([a-zA-Z]*)&(?:amp;)highlight=([a-zA-Z0-9]*)'",

"'(?<!/)viewtopic.php?t=([0-9]*)&(?:amp;)start=([0-9]*)'",

"'(?<!/)viewtopic.php?t=([0-9]*)'",

"'(?<!/)viewtopic.php&(?:amp;)p=([0-9]*)'",

"'(?<!/)viewtopic.php?p=([0-9]*)'",

);

$urlout = array(

"viewforum1-2-3.html",

"forum1.html",

"forum1.html",

"ptopic1.html",

"ntopic1.html",

"ftopic1-2-3-4.html",

"ftopic1.html",

"ftopic1-2.html",

"ftopic1.html",

"sutra1.html",

"sutra1.html",

);

$s = preg_replace($urlin, $urlout, $s);

return $s;

}

W pliku includes/page_tail.php znajdź

$db->sql_close();

i dodaj pod tym:

$contents = ob_get_contents();

ob_end_clean();

echo replace_for_mod_rewrite($contents);

global $dbg_starttime;

w tym samym pliku znajdź:


$gzip_contents = ob_get_contents();

       ob_end_clean();

i zamień na

$gzip_contents = ob_get_contents();

       ob_end_clean();

echo replace_for_mod_rewrite($contents);

global $dbg_starttime;

W pliku .htaccess (jeżeli nie istnieje ten plik to go stwórz i umieść w root:

RewriteEngine On

Options +FollowSymlinks

RewriteRule ^phpbb2/forums.* /phpbb2/index.php

RewriteRule ^phpbb2/forum([0-9]*).* /phpbb2/viewforum.php?f=$1&mark=topic

RewriteRule ^phpbb2/viewforum([0-9]*)-([0-9]*)-([0-9]*).* phpbb2/viewforum.php?f=$1&topicdays=$2&start=$3

RewriteRule ^phpbb2/forum([0-9]*).* phpbb2/viewforum.php?f=$1

RewriteRule ^phpbb2/ptopic([0-9]*).* phpbb2/viewtopic.php?t=$1&view=previous

RewriteRule ^phpbb2/ntopic([0-9]*).* phpbb2/viewtopic.php?t=$1&view=next

RewriteRule ^phpbb2/ftopic([0-9]*)-([0-9]*)-([a-zA-Z]*)-([0-9]*).* phpbb2/viewtopic.php?t=$1&postdays=$2&postorder=$3&start=$4

RewriteRule ^phpbb2/ftopic([0-9]*)-([0-9]*).* phpbb2/viewtopic.php?t=$1&start=$2

RewriteRule ^phpbb2/ftopic([0-9]*).* phpbb2/viewtopic.php?t=$1

RewriteRule ^phpbb2/ftopic([0-9]*).html phpbb2/viewtopic.php?t=$1&start=$2&postdays=$3&postorder=$4&highlight=$5

RewriteRule ^phpbb2/sutra([0-9]*).* phpbb2/viewtopic.php?p=$1

.htaccess może potrzebować zmianm w zależności gdzie masz zainstalowane forum i od ustawień twojego serwera.

session killer

to nie dodaje session id jeżeli na forum wchodzi robot z list. Do listy można dodawać więcej robotów.

W pliku includes/sessions.php znajdź:

function append_sid($url, $non_html_amp = false)

i zamień wszystko od tego miejsca na:

function append_sid($url, $non_html_amp = false)

{

       global $SID;



       if ( !empty($SID) && !eregi('sid=', $url) && !areyouabot()  )

       {

           if ( !empty($SID) && !eregi('sid=', $url) )        {

               $url .= ( ( strpos($url, '?') != false ) ?  ( ( $non_html_amp ) ? '&' : '&' ) : '?' ) . $SID;

           }

       }

       return($url);

}

function areyouabot()

{

global $HTTP_SERVER_VARS;

       $RobotsList = array (

       "antibot",

       "appie",

       "architext",

       "bjaaland",

       "digout4u",

       "echo",

       "fast-webcrawler",

       "ferret",

       "googlebot",

       "gulliver",

       "harvest",

       "htdig",

       "ia_archiver",

       "jeeves",

       "jennybot",

       "linkwalker",

       "lycos",

       "mercator",

       "moget",

       "muscatferret",

       "myweb",

       "netcraft",

       "nomad",

       "petersnews",

       "scooter",

       "slurp",

       "unlost_web_crawler",

       "voila",

       "voyager",

       "webbase",

       "weblayers",

       "wget",

       "wisenutbot",

       "acme.spider",

       "ahoythehomepagefinder",

       "alkaline",

       "arachnophilia",

       "aretha",

       "ariadne",

       "arks",

       "aspider",

       "atn.txt",

       "atomz",

       "auresys",

       "backrub",

       "bigbrother",

       "blackwidow",

       "blindekuh",

       "bloodhound",

       "brightnet",

       "bspider",

       "cactvschemistryspider",

       "cassandra",

       "cgireader",

       "checkbot",

       "churl",

       "cmc",

       "collective",

       "combine",

       "conceptbot",

       "coolbot",

       "core",

       "cosmos",

       "cruiser",

       "cusco",

       "cyberspyder",

       "deweb",

       "dienstspider",

       "digger",

       "diibot",

       "directhit",

       "dnabot",

       "download_express",

       "dragonbot",

       "dwcp",

       "e-collector",

       "ebiness",

       "eit",

       "elfinbot",

       "emacs",

       "emcspider",

       "esther",

       "evliyacelebi",

       "nzexplorer",

       "fdse",

       "felix",

       "fetchrover",

       "fido",

       "finnish",

       "fireball",

       "fouineur",

       "francoroute",

       "freecrawl",

       "funnelweb",

       "gama",

       "gazz",

       "gcreep",

       "getbot",

       "geturl",

       "golem",

       "grapnel",

       "griffon",

       "gromit",

       "hambot",

       "havindex",

       "hometown",

       "htmlgobble",

       "hyperdecontextualizer",

       "iajabot",

       "ibm",

       "iconoclast",

       "ilse",

       "imagelock",

       "incywincy",

       "informant",

       "infoseek",

       "infoseeksidewinder",

       "infospider",

       "inspectorwww",

       "intelliagent",

       "irobot",

       "iron33",

       "israelisearch",

       "javabee",

       "jbot",

       "jcrawler",

       "jobo",

       "jobot",

       "joebot",

       "jubii",

       "jumpstation",

       "katipo",

       "kdd",

       "kilroy",

       "ko_yappo_robot",

       "labelgrabber.txt",

       "larbin",

       "legs",

       "linkidator",

       "linkscan",

       "lockon",

       "logo_gif",

       "macworm",

       "magpie",

       "marvin",

       "mattie",

       "mediafox",

       "merzscope",

       "meshexplorer",

       "mindcrawler",

       "momspider",

       "monster",

       "motor",

       "msnbot",

       "yahoo! slurp",

       "mwdsearch",

       "netcarta",

       "netmechanic",

       "netscoop",

       "newscan-online",

       "nhse",

       "northstar",

       "occam",

       "octopus",

       "openfind",

       "orb_search",

       "packrat",

       "pageboy",

       "parasite",

       "patric",

       "pegasus",

       "perignator",

       "perlcrawler",

       "phantom",

       "piltdownman",

       "pimptrain",

       "pioneer",

       "pitkow",

       "pjspider",

       "pka",

       "plumtreewebaccessor",

       "poppi",

       "portalb",

       "puu",

       "python",

       "raven",

       "rbse",

       "resumerobot",

       "rhcs",

       "roadrunner",

       "robbie",

       "robi",

       "robofox",

       "robozilla",

       "roverbot",

       "rules",

       "safetynetrobot",

       "search_au",

       "searchprocess",

       "senrigan",

       "sgscout",

       "shaggy",

       "shaihulud",

       "sift",

       "simbot",

       "site-valet",

       "sitegrabber",

       "sitetech",

       "slcrawler",

       "smartspider",

       "snooper",

       "solbot",

       "spanner",

       "speedy",

       "spider_monkey",

       "spiderbot",

       "spiderline",

       "spiderman",

       "spiderview",

       "spry",

       "ssearcher",

       "suke",

       "suntek",

       "sven",

       "tach_bw",

       "tarantula",

       "tarspider",

       "techbot",

       "templeton",

       "teoma_agent1",

       "titin",

       "titan",

       "tkwww",

       "tlspider",

       "ucsd",

       "udmsearch",

       "urlck",

       "valkyrie",

       "victoria",

       "visionsearch",

       "vwbot",

       "w3index",

       "w3m2",

       "wallpaper",

       "wanderer",

       "wapspider",

       "webbandit",

       "webcatcher",

       "webcopy",

       "webfetcher",

       "webfoot",

       "weblinker",

       "webmirror",

       "webmoose",

       "webquest",

       "webreader",

       "webreaper",

       "websnarf",

       "webspider",

       "webvac",

       "webwalk",

       "webwalker",

       "webwatch",

       "whatuseek",

       "whowhere",

       "wired-digital",

       "wmir",

       "wolp",

       "wombat",

       "worm",

       "wwwc",

       "wz101",

       "xget",

       "awbot",

       "bobby",

       "boris",

       "bumblebee",

       "cscrawler",

       "daviesbot",

       "ezresult",

       "gigabot",

       "gnodspider",

       "internetseer",

       "justview",

       "linkbot",

       "linkchecker",

       "nederland.zoek",

       "perman",

       "pompos",

       "psbot",

       "redalert",

       "shoutcast",

       "slysearch",

       "ultraseek",

       "webcompass",

       "yandex",

       "robot",

       "crawl"

       );

       $botID = strtolower($HTTP_SERVER_VARS['HTTP_USER_AGENT']);

       for ($i = 0; $i < count($RobotsList); $i++)

       {

               if ( strstr($botID, $RobotsList[$i]) )

               {

                       return TRUE;

               }

       }

       return FALSE;



}

Share this post


Link to post
Share on other sites
jaka funkcje pelni ta tablica z nazwami robotow ?? 

bo zastanawiam sie czy nie warto dodac tam np polskich robotow ??

Jak najbardziej warto i nawet trzeba. Funkcje pełni taką, że jeżeli user-agent jest zawart w liście to session id nie będzie dodany.

Jak zrobisz listę polskich robotów, to fajnie by było gdybyś mógł ją tutaj podać.

Share this post


Link to post
Share on other sites

jako ze nie mam pewnosci co do nazw robotow dokladnie tego co bedzie potrzebne do stworzenia poprawnego kodu podaje za logami serwera

http://stats.rsi.pl/www.ucet.pl/agent_200305.html

Szukacz== szukacz

przedstawia sie calkowicie tak

Szukacz/1.5 (robot; www.szukacz.pl/jakdzialarobot.html; info@

NETOSKOP == netoskop

przedstawia sie po prostu

netoskop

GOORU == Gooru-WebSpider

przedstawia sie

Gooru-WebSpider/1.0 (Linux; PI)

NETSPRINT == NetSprint

przedstawia sie

NetSprint -- 2.0

ONET == Inktomi lub onet :)

przedstawia sie

Inktomi.search.onet.9 ->tutaj cyferki sie zmieniaja oczywiscie

podaje za

http://stats.zgo.serwery.pl/zgo.pl/agent_200403.html

poniezej zamieszczam moja interpretacje zmian w kodzie

nie wiem czy dobrze zrozumialem jak to dziala ??


global $HTTP_SERVER_VARS; 

       $RobotsList = array ( 

// polskie roboty

       "szukacz",

       "netoskop",

//gooru

       "gooru",

       "webspider", 

// onet        

       "onet",

       "inktomi",

// netsprint

       "netsprint",

//koniec polskich robotow

       "antibot", 

       "appie", 

       "architext", 

       "bjaaland", 

       "digout4u", 

       "echo", 

       "fast-webcrawler", 

       "ferret", 

       "googlebot", 

       "gulliver", 

       "harvest", 

       "htdig", 

       "ia_archiver", 

       "jeeves", 

       "jennybot", 

       "linkwalker", 

       "lycos", 

       "mercator", 

       "moget", 

       "muscatferret", 

       "myweb", 

       "netcraft", 

       "nomad", 

       "petersnews", 

       "scooter", 

       "slurp", 

       "unlost_web_crawler", 

       "voila", 

       "voyager", 

       "webbase", 

       "weblayers", 

       "wget", 

       "wisenutbot", 

       "acme.spider", 

       "ahoythehomepagefinder", 

       "alkaline", 

       "arachnophilia", 

       "aretha", 

       "ariadne", 

       "arks", 

       "aspider", 

       "atn.txt", 

       "atomz", 

       "auresys", 

       "backrub", 

       "bigbrother", 

       "blackwidow", 

       "blindekuh", 

       "bloodhound", 

       "brightnet", 

       "bspider", 

       "cactvschemistryspider", 

       "cassandra", 

       "cgireader", 

       "checkbot", 

       "churl", 

       "cmc", 

       "collective", 

       "combine", 

       "conceptbot", 

       "coolbot", 

       "core", 

       "cosmos", 

       "cruiser", 

       "cusco", 

       "cyberspyder", 

       "deweb", 

       "dienstspider", 

       "digger", 

       "diibot", 

       "directhit", 

       "dnabot", 

       "download_express", 

       "dragonbot", 

       "dwcp", 

       "e-collector", 

       "ebiness", 

       "eit", 

       "elfinbot", 

       "emacs", 

       "emcspider", 

       "esther", 

       "evliyacelebi", 

       "nzexplorer", 

       "fdse", 

       "felix", 

       "fetchrover", 

       "fido", 

       "finnish", 

       "fireball", 

       "fouineur", 

       "francoroute", 

       "freecrawl", 

       "funnelweb", 

       "gama", 

       "gazz", 

       "gcreep", 

       "getbot", 

       "geturl", 

       "golem", 

       "grapnel", 

       "griffon", 

       "gromit", 

       "hambot", 

       "havindex", 

       "hometown", 

       "htmlgobble", 

       "hyperdecontextualizer", 

       "iajabot", 

       "ibm", 

       "iconoclast", 

       "ilse", 

       "imagelock", 

       "incywincy", 

       "informant", 

       "infoseek", 

       "infoseeksidewinder", 

       "infospider", 

       "inspectorwww", 

       "intelliagent", 

       "irobot", 

       "iron33", 

       "israelisearch", 

       "javabee", 

       "jbot", 

       "jcrawler", 

       "jobo", 

       "jobot", 

       "joebot", 

       "jubii", 

       "jumpstation", 

       "katipo", 

       "kdd", 

       "kilroy", 

       "ko_yappo_robot", 

       "labelgrabber.txt", 

       "larbin", 

       "legs", 

       "linkidator", 

       "linkscan", 

       "lockon", 

       "logo_gif", 

       "macworm", 

       "magpie", 

       "marvin", 

       "mattie", 

       "mediafox", 

       "merzscope", 

       "meshexplorer", 

       "mindcrawler", 

       "momspider", 

       "monster", 

       "motor", 

       "msnbot", 

       "yahoo! slurp", 

       "mwdsearch", 

       "netcarta", 

       "netmechanic", 

       "netscoop", 

       "newscan-online", 

       "nhse", 

       "northstar", 

       "occam", 

       "octopus", 

       "openfind", 

       "orb_search", 

       "packrat", 

       "pageboy", 

       "parasite", 

       "patric", 

       "pegasus", 

       "perignator", 

       "perlcrawler", 

       "phantom", 

       "piltdownman", 

       "pimptrain", 

       "pioneer", 

       "pitkow", 

       "pjspider", 

       "pka", 

       "plumtreewebaccessor", 

       "poppi", 

       "portalb", 

       "puu", 

       "python", 

       "raven", 

       "rbse", 

       "resumerobot", 

       "rhcs", 

       "roadrunner", 

       "robbie", 

       "robi", 

       "robofox", 

       "robozilla", 

       "roverbot", 

       "rules", 

       "safetynetrobot", 

       "search_au", 

       "searchprocess", 

       "senrigan", 

       "sgscout", 

       "shaggy", 

       "shaihulud", 

       "sift", 

       "simbot", 

       "site-valet", 

       "sitegrabber", 

       "sitetech", 

       "slcrawler", 

       "smartspider", 

       "snooper", 

       "solbot", 

       "spanner", 

       "speedy", 

       "spider_monkey", 

       "spiderbot", 

       "spiderline", 

       "spiderman", 

       "spiderview", 

       "spry", 

       "ssearcher", 

       "suke", 

       "suntek", 

       "sven", 

       "tach_bw", 

       "tarantula", 

       "tarspider", 

       "techbot", 

       "templeton", 

       "teoma_agent1", 

       "titin", 

       "titan", 

       "tkwww", 

       "tlspider", 

       "ucsd", 

       "udmsearch", 

       "urlck", 

       "valkyrie", 

       "victoria", 

       "visionsearch", 

       "vwbot", 

       "w3index", 

       "w3m2", 

       "wallpaper", 

       "wanderer", 

       "wapspider", 

       "webbandit", 

       "webcatcher", 

       "webcopy", 

       "webfetcher", 

       "webfoot", 

       "weblinker", 

       "webmirror", 

       "webmoose", 

       "webquest", 

       "webreader", 

       "webreaper", 

       "websnarf", 

       "webspider", 

       "webvac", 

       "webwalk", 

       "webwalker", 

       "webwatch", 

       "whatuseek", 

       "whowhere", 

       "wired-digital", 

       "wmir", 

       "wolp", 

       "wombat", 

       "worm", 

       "wwwc", 

       "wz101", 

       "xget", 

       "awbot", 

       "bobby", 

       "boris", 

       "bumblebee", 

       "cscrawler", 

       "daviesbot", 

       "ezresult", 

       "gigabot", 

       "gnodspider", 

       "internetseer", 

       "justview", 

       "linkbot", 

       "linkchecker", 

       "nederland.zoek", 

       "perman", 

       "pompos", 

       "psbot", 

       "redalert", 

       "shoutcast", 

       "slysearch", 

       "ultraseek", 

       "webcompass", 

       "yandex", 

       "robot", 

       "crawl" 

       );

Share this post


Link to post
Share on other sites

wracając do tego HTML...

wprowadziłem wszystkie zmiany,

utworzyłem .htaccess (tak się ten plik ma nazywać? bez rozszerzenia?)

a mimo to nie zamienia na htmle i w ogonie strony pokazuje:

Fatal error: Call to undefined function: replace_for_mod_rewrite() in /Bartek/forum/includes/page_tail.php on line 51

co powinienem zmienić w htaccess? bo zmieniłem "phpBB2" na "Bartek/forum"

a może powinienem "forum"?

proszę o pomoc

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.


  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue. Terms of Use Privacy Policy