Robots.txt הוא עורך ויזואלי להרחקת רובוט קבצים ותוכנת מנתח ביומן. זה מאפשר למשתמש ליצור במהירות ובקלות קבצי robots.txt הנדרשים להורות מנועי חיפוש, שהם חלקים של אתר אינטרנט אינם לאינדקס ועשו חיפוש על ידי הציבור באינטרנט בכלל ולאחר מכן לזהות עכבישים, שלא לשמור להוראות אלה. התכנית מספקת למשתמש דרך להתחבר לשרת FTP או הרשת המקומי שלו ולאחר מכן בחר את המסמכים וספריות שאינן להתבצע חיפוש. באמצעות תכנית זו תוכל ליצור חזותי קבצי robots.txt תקן תעשייה; לזהות עכבישים זדוניים ולא רצויים ולאסור אותם מהאתר שלך; מנוע חיפוש סורקים ישירים לדפים המתאימים לאתרים רב-לשוניים; לשמור מחוץ לאזורים רגישים והפרטיים של אתר האינטרנט שלך עכבישים; מעקב אחר ביקורי עכביש ועוד. עדכונים חינם program`s ושדרוגים בלתי מוגבלים בזמן; . מספר בלתי מוגבל של אתרי אינטרנט לעבודה עם
דרישות :
Windows 98 / Me / NT / 2000 / XP / Server 2003
תגובות לא נמצא