Robots.txt är en visuell editor för robotuteslutning Filer och en Log Analyzer programvara. Det låter en användare att snabbt och enkelt skapa robots.txt-filer som krävs för att instruera sökrobotar, som är delar av en webbplats är inte indexeras och gjort sökbar för allmänheten allmänna webben och sedan för att identifiera spindlar, vilka inte hålla sig till dessa instruktioner. Programmet ger användaren ett sätt att logga in på sin FTP eller lokala nätverksserver och välj sedan de dokument och kataloger som inte göras sökbar. Med hjälp av detta program kommer du att kunna visuellt generera branschstandard robots.txt filer; identifiera skadliga och oönskade spindlar och förbjuda dem från din webbplats, direkta sökrobotar till lämpliga sidor för flerspråkiga webbplatser; hålla spindlar av känsliga och privata delarna av din webbplats; spåra spindel besök och mer. Fria program`s uppdateringar och uppgraderingar fritt i tid; . obegränsat antal webbplatser för att arbeta med
Krav :
Windows 98 / Me / NT / 2000 / XP / 2003 Server
Kommentarer hittades inte