פרטי תוכנה:
ניתן להשתמש בכתב סורקי חיפוש (עכבישים) כי דפי האינטרנט שלי לקבלת מידע שונות.
PHPCrawl רוכש מידע זה היה מוגדר להביא ומעביר אותו ליישומים חזקים יותר לעיבוד נוסף
תכונות :.
- מסננים נתונים כתובת אתר וContent-Type
מצבי עיבוד Multi
מה חדש בהודעה זו:
- באגים קבועים:
- קישורי הurlencoded באופן חלקי ובחלק לא מקבל לבנות מחדש / מקודדים בצורה נכונה עכשיו.
- הוסר var_dump באגים מיותרים () מPHPCrawlerRobotsTxtParser.class.php
- שרת-שם-האינדיקציה בTLS / SSL פועלת כראוי כעת.
- ; בסיס-href & quot;. -tags באתרים לקבל לפרש כהלכה עכשיו שוב
& Quot
מה חדש בגרסת 0.80 בטא :
- הקוד היה refactored לחלוטין, מועבר לPHP5-OO-
קוד והרבה קוד שוכתבו.
- הוספת היכולת להשתמש במספר רב של תהליכי שימוש כדי עכביש אתר. שיטה & quot; goMultiProcessed () & quot; הוסיף.
- שיטה חדשה overridable & quot; initChildProcess () & quot; הוסיף לייזום ילד-תהליכים בעת השימוש בסורק בתהליך-מצב מרובה.
- Implementet חלופי, במטמון-מנגנון SQLite הפנימי עבור כתובות אתרים המאפשר לעכביש אתרים גדולים מאוד.
- שיטה & quot; setUrlCacheType () & quot; הוסיף.
- setWorkingDirectory השיטה החדשה () הוסיף להגדרת המיקום של סורקי עבודה-ספרייה זמנית באופן ידני. לכך שיטה & quot; setTmpFile () & quot; הוא סומן כמיושן (אין פונקציה יותר).
- שיטה חדשה & quot; addContentTypeReceiveRule () & quot; מחליף את שיטת quot & הישן; addReceiveContentType () & quot;.
- הפונקציה & quot; addReceiveContentType () & quot; עדיין קיים, אבל היה מסומן כמיושן.
דרישות :
- גבוה PHP 5 או
- PHP עם תמיכת OpenSSL
תגובות לא נמצא