ראשי תיבות של שימוש לעיתים קרובות בעולם של שיווק באמצעות האינטרנט, הוא מתייחס באנגלית שני מושגים הקשורים ומיידית. כלומר, יכול מתכוון אופטימיזציה למנועי חיפוש, וציינו את התהליך של פרסום והשידור עמדות, משפר ומעניקה ראות אל אתר אינטרנט; קידום אתרים יכול גם מתכוון האופטימיזציה מנוע חיפוש, לייעד, ואז, המקצועי או החברה מפתחת ומספקת שירות כזה. למרות הספרדים, כמו בכל השפות עכשווי, חווה של מפולת שלגים אמיתית של הקולות האנגליים בתחום מדעי המחשב, מנוע החיפוש לא חדרו, אומר, עם הגסות אותו במונחים אחרים. הדובר ספרדית הממוצע מתייחס בדרך כלל מנועי החיפוש או חיפוש מנועי (האחרון, תרגום קרוב יותר למקור). בעיקרון, ו במשך עשרות שנים, מנוע החיפוש היה השם גנרי של תוכניות אלה שיחזר את המידע במחשב יחיד; לאחר מכן, עם כניסתו של האינטרנט, מנוע חיפוש קרה לייעד באופן כמעט בלעדי, אתרים אלה ממניעים פונקציה אנלוגי התאוששות, יצירת אינדקס של נתונים כבר לא יחידה אחת, אבל באזור זה של מישהו או, ליתר דיוק, באזור זה של כל מה שאנו קוראים באינטרנט.
+ היסטוריה שונה ומהירה אם היה צריך לבחור נקודת הפיצול, 1975 תהיה שנה טובה. נושבת הרוח גוארה קר. לפני הרמוניה של התקפה גרעינית הסובייטי, אותם איברים של ההגנה האמריקאי בהגיון נפילת שלהם ערוצי תקשורת: אם נקודה אסטרטגית נפל אם וושינגטון די. סי., לדוגמה, הוא חמק תחת פטרייה אטומית, אותם אחרים צריכים לשמור את הקישורים הוא במגע; התמוטטות שרשרת הפיקוד יכולה להיות קטלנית. התקשורת כעניין של הישרדות של האומה.
לכן, כי, ב-1975, מחלקת ההגנה של ארצות הברית אותם נטו מחשב רשת ניסויית, – ARPANET, האב הקדמון של היום אנו יודעים כמו רשת האינטרנט. כל משאבה האטומי החריב את הברית יונייטד, כפי שאנו מכירים אותה; אבל האינטרס אותם רשתות מחשב לא מדולל והוא, עדיין טוב, מועבר על טריטוריה שליו יותר ופורה, האוניברסיטאות. בתחילת העשור האחרון של המאה ה-20, טים ברנרס-לי עבד עבור הארגון האירופי למחקר גרעיני (CERN, לפי שמו בצרפתית). להקל על חילופי נתונים, תוצאות וחדשות בקרב מדענים, לתת להם כלי יעיל ומהיר, כזה היה המטרה של ברנרס-לי. בשנת 1991, המתמטיקאי הבריטי המציא את הדפדפן הראשון, WorldWideWeb (או כפי שהוא ידוע יותר בכינויו, מה היה המצאה שלו? כי מזל שפה פרנקה במחשב, זה מורחבים העברת כמויות גדולות של מידע למחשב השני. תודה על ה-www (תוכנית) יכולה ללדת האינטרנט (רשת פיזית). כתובות אינטרנט, ראה נוטריקון שמסכם את התרומה של ברנרס-לי: (Hypertext Transfer Protocol). מושג מפתח, הנה, היפר-טקסט: אומר קיום שלווה, על תמיכה אותו, של משאבים מרובים משתמש המנהל בהתאם למצב הרוח שלך או צרכים. (היפר-טקסט הוא צעד קדימה, אם אתה רוצה, בעצם הרעיון של ממשקים, הגבולות אבסטרקטית הללו ומאפשר הפנימי של תוכנית מחשב, קיום מסודרת של קבצים שונים). . זה לא חצוף לשקול באינטרנט כמו היפרטקסט ענק… בערכאה הראשונה, מתוך אתר האינטרנט של CERN, לי ועמיתיו ניסה לשמור על רשימה של ספקי מידע זמין. בקרוב, איזה מאמץ היה על גדותיו. של ההיגיון הצבאי המקורי אשר עודדה את הלידה שלה, האינטרנט שיפרה את הרעיון של שכפול ללא מרכז קבוע, ללא קצוות, להשאיר בחיים כאשר אחד ממרכיביה על (כמעט עד להזיות). כמו אולי שום טכנולוגיה אחרים שזה עשה בהיסטוריה של הגבר, האינטרנט מתפתחת במהירות עז החודרניים, + מפות של התוהו ובוהו בקרוב מאוד, האינטרנט הופך באוקיינוס. איך למצוא אותך? כיצד מדריך במבוך הזה וירטואלי? אז הגיע במנועי החיפוש באינטרנט. מסדי נתונים ענקיים, להצביע על הנווט שבו תוכלו למצוא מידע על הריבית, מנועי החיפוש הפכו דלתות כניסה. בלעדיהם, זה נמצא במעקב העבודה של אינדקס לאתרי אינטרנט אחרים, המרחב הווירטואלי אולי היה בלתי עבירים. מנועי החיפוש הם נחים בסוג של תוכנית מסוימת, שנקרא זחלן (בנוסף, האינטרנט עכביש או אינטרנט רובוט). זחלן במרחב הווירטואלי של מנדודי שינה, לצמיתות. (כיום, בעוד מישהו קורא שורות אלו, של הזוחלים אלפי פעילים). שלא כמו מסד נתונים המסורתית, אילו אנשים allegan מידע רלוונטי על עניין מסוים, ההרחבה של מנועי החיפוש באינטרנט הוא עיוור, אוטומטי. הסיבה היא ברורה: פיתוח מקיפה אינדקס של האינטרנט חריגה, חורג, יהיה סביר העולה על האפשרויות של אדם אחד, אפילו, אחד המון אנשים. אותם הזוחלים הנסיעה, היא המפגש עם אתר אינטרנט, זה להפסיק, זה לאורכו, חקר, ליפול כל המידע זמין,, ולחזור לבסיס שלהם. לאחר מכן, האתגר של מנועי החיפוש הוא אינדקס, הדרך הטובה ביותר שניתן, כל המידע הזה, זה יש לפרט כאשר בקשת המשתמש יודע ביחס כזה או איזה נושא. לחקור את ההליך אינטרנט אשר, באנגלית, נקרא אינטרנט זוחל או spidering האינטרנט, לכל מנוע חיפוש פיתחה טכנולוגיה משלה, תוכניות משלו. ההיגיון על ידי אשר apresa הסורק ומידע שיבדיל תלוי האלגוריתמים שאליו הוא מיועד. האלגוריתם המונח נובע מתמטיקה ו משהו המכונה רצף של הוראות; באופן ספציפי, במדעי המחשב, אלגוריתם הוא סוג של יחידת התכנות מינימלי, משוואה המציין את השלבים כדי לפתור בעיה. בתחילה, הזוחלים רק הלך לצוד שהיה כל אתר אינטרנט המקודדת את שפת סימון היפר-טקסט (סמל שמזוהות על-ידי כל משתמש אינטרנט: HTML). שם, הסוגריים המרובעים HTML הכיל תיאור קצר, סינתטי וטכני של התוכן של אתר האינטרנט. והיה אם אותם אמר את זה בפינה כזו של האינטרנט, הייתה תמונה שלא פורסמו של נפוליאון בונפרטה, באקפולקו השעה 3 בצהריים 18 של יוני 1989, כמו מנוע החיפוש חלק מסד הנתונים שלה. הם גבולות הפעולה אוטומטית. אכן, כיצד ללמד אותך למחשב לזהות שקר? + את הרמייה של אותם אתרים בקרוב מאוד, אותם מנהלים של אותם אתרי אינטרנט הוא הבחין של זה ב- lay להם שהמפתח לתפקיד הוא במקומות הראשונים מהם רשימות הציע אותם מנועי החיפוש. מספר מחקרים אישרו כי העין של המשתמש של האתר מחפש מלמעלה למטה, משמאל לימין זה סוף ברור, השפות לקרוא משמאל לימין; מופיע, כי בין הכתובות בעשרת הראשונה של רשימה גדל אקספוננציאלית הסיכויים של משיכת משתמשים באינטרנט הפך שם נרדף להצלחה באינטרנט. האלגוריתמים מהם הזוחלים בראשיתי אותם קודם במנועי חיפוש, הנודד, Aliweb, תאריך שנת 1993 הצביע באופן כמעט בלעדי על אותם metatags; אבל, כפי שהוזכר כבר, הליך זה בקרוב חשף לא אמין: אתרים לא ישר התחיל לנפח את המוצרים שלהם עם תיאורים הונאה. (למשוך מבקרים, למען האמת, מחפשים עבור סוגים אחרים של מידע היא פרקטיקה נפוצה מאוד, הונאה, מנועי החיפוש לרדוף, לגנות בהתלהבות יותר. (יש היה נטבל הרמאות הזו, באנגלית, כמו דואר זבל). + לוגי בתנועה כאשר החיפוש מנועי שנשאר לעמוד זה עם המידע של HTMLs אותם, השאלה היתה כיצד תשפר את התהליך? כיצד למדוד את הרלוונטיות של אתר אינטרנט? שאלות מפתח, בלב ליבה של העסק; שאלות ימשיך לחשוף כדי מתכנתים יצירתי. תרומה מכרעת הגיע במחצית השנייה של שנות התשעים. שני סטודנטים של אוניברסיטת סטנפורד, סרגיי ברין, לארי פייג ' (היוצרים של), החלטנו לחשב את הזמנים כי נערכו ביקורים באתר אינטרנט מאתר אינטרנט אחר; כזה משתנה, המכונה נכנסים לקישור, הוא, עד היום של היום, אחד מהקריטריונים האלה יותר חשוב קבע הרלוונטיות של הדף. עם הקישורים הנכנסים, ברין ודף לשאוף למדוד את הרגלי נטו, ובאות של המשתמש, זרימת המידע אותו: הם לקחו עמוד מטבח להמליץ על אתרי אינטרנט אחרים, כי הם consagrasen על מכניקת הקוונטים. קישור נכנס הוא מזל ההמלצה עובדתי, סוג של מדד הפופולריות של אתר אינטרנט. עם זאת, היו לא המשתנה שאינו טועה המיוחל: בקרוב מאוד, שוב, מאוד בקרוב כי הכל קרה כל כך מהר, בהיסטוריה של מרחב הווירטואלי, מנהלי אתרים לא ישר הצליחו ליקרי אלגוריתמים: הם יצרו קישורים וירטואלי (קישור החוות) משקים, הם לשכפל קישורים דואר זבל, וכן הלאה. המאבק נגד אלה אתרים לא ישר גם mutaba הוא encarnizaba. באופן כללי, לעומת זאת, הגישה של מנועי החיפוש כדי מנהלי אתרי אינטרנט אינו עוין. להפך! מסדי נתונים ענקיים אלה הייתי רוצה לדעת מה הם אתרי האינטרנט! עם זאת, המהירות שבה מתרחב באינטרנט תמיד עולה על מאמציה. עבור כאשר הזוחלים הם בחזרה בבסיס צבאי, אף אחד לא יכול להבטיח את זה זה או אחר באתר האינטרנט, מזוהה, סיור כבר בחנו, ממשיך באינטרנט. לאינטרנט כל משתמש אתה קרה עת מלאה חיפוש, בחר באחד הקישורים הציע מתנגשות הוא עם ההודעה על זה עמוד זה כבר פג. כמובן, אותם הזוחלים נועדו להחזיר ולוודא כי אותם אתרי אינטרנט להמשיך שם, אך מידע זה גם יש את זה שיבה אליהם הצריפים, לעבד ולעדכן לשים פריסה של אותם הלקוחות, ואז, אף אחד לא יכול להבטיח כי אתר האינטרנט או כאלה אשר ממשיכים בקו. נוצר מעגל קסמים שלילי. הזוחלים הם לא רק שנועדה לבדוק את החוקיות של אתרי אינטרנט, גם הם mensuran להם ותק, תדירות העדכונים. ואכן, מדיניות נכנסים לשחק הן מרובות, והם אינם יציבים קריטריונים הרבה פחות. (לאחרונה, למשל, ישנה נטייה להעניש דפי משנה או מהר מדי למחוק את תוכנו, כי הוא חשב, תוכן ארעיות היה לא רלוונטי). + שוק עצום, שוק עדיין מיעוט אותם מנועי החיפוש הוא מאוד רחוקים ידיעת-כל על ידי מסיבות שונות: זה, בדרך של וירוס רופף, לא חסרים הזוחלים רוע או spambots, נסיעות נזקים web והחזירה וחוסר אמון. מנהלי אתרים רבים רוצה גם, כי הדפים שלהם יישארו מחוץ לרדאר, ועל ידי כן, להציב סיסמאות כדי הזוחלים אותם או נופש בפרוטוקול אי-הכללה של רובוטים (robots. txt), תוכניות שיכולים להגן, כבר זה כל, כבר חלק של אתר אינטרנט. עם זאת, הסיבה העיקרית היא רק כמותית: האינטרנט הוא מסה עצומה וירטואלית וטלי בכל מנוע חיפוש יסתדר. כמות השטח באינטרנט, קרי, את הכמות של דואר אלקטרוני כתובות החיפוש הזה מנועי השיגו עד כה שהוא נאמד טרה-בתים עם 167; אבל הסכום של האינטרנט עמוק, גם deepnet שנקרא, ברשת או אינטרנט מוסתרים, וייל אמר, את כמות הדפים לא נגעו מאת הזוחלים, הוא מוערך כ 91 0000 טרה-בתים! מתכנתים וצוותי מחקר סובלים סיוטים, כשהם חושבים על עובדה זו. רוב האינטרנט לא מזוהה אפילו! + היזמים הראשי של ה- בשנת 1997 שבאותה שנה כי מנועי החיפוש הודה כי מנהלי לא ישר נכנס היד שלהם המפורטים, ראשי התיבות החלו מעגלי. האינטרנט היה אושיאניק, וחשיבותן כל יום ואת העסק החיים גוברת. עם הבום של חברות dot.com, futurologists רבים במדעי החברה באו לחזות זאת, באזורים מסוימים, סחר פנים אל פנים זה יעלם.. החל משנת 1997, המתכנתים מוחלים על ההתפתחות של הזוחלים ממוקד או הזוחלים אקטואלי. אמנם הם החליטו למכור שטחי פרסום קישורים ממומנים, אלה שילם וקישורים שמופיעים בקצהו של תוצאות חיפוש, מנועי החיפוש יודעים כי הם יכולים באופן מלאכותי לכפות אתר. . עניינך הוא לספק מידע רלוונטי, בצו ההצטיינות אפשרי הטוב ביותר; אם לא זה, האינטרנט ייראה בחלק אחר. כל אזור מסחרי, לקוח פיתה או השתתפו אין החזרות; בתחום הזה של בטווח המיידי, זה באינטרנט, נאמנות לקוחות הוא נדיף יותר. לחיצה כדי להעניש את שירות רע. מקובל כי המשתמשים לחצות תוצאות; מקובל להתייחס רשימות שונות. מנועי החיפוש אינם מגיבים שווה ל התייעצויות אותו. הדרך המשתמשים הוספת אותם מילות חיפוש או מילות מפתח השפעה בתוצאות אלה. לכל מנוע חיפוש מטפל פרוטוקול משלו ותחביר משלו. ההוראות ההצטיינות לא דומים, רשימות הן לא ברורה וחד משמעית. החיפוש מנועי, ולכן קודם מעוניין בקידום אתרי אינטרנט הזה במיוחד יצא את המידע הטכני על עצמם ביותר האפשרי באופן המדויק ביותר של פחות; מנועי החיפוש לייעץ ללקוחות הפוטנציאליים שלהם, לפתח, לשים את הקישורים סילוק שלך עם המלצות בנוגע אל הצד הטכני העיצוב הטוב ביותר של אותם אתרים. + כיצד להשתתף בדמוקרטיה זה יצא מכלל שליטה זה באינטרנט? הטכנולוגיה של מנועי החיפוש אינו סטטי, להפך, כמו שנאמר: הזוחלים משתנים, אלגוריתמים שלהם הם תמיד בחיפוש אחר מידע שיבדיל עם הצלחה גדולה יותר. שינוי יחיד ליחיד התקדמות כלומר אתרי אינטרנט חייב להתאים שלהם יתדות בשורה מנגינה. כל ההמלצות האלה כי מנועי החיפוש האלה לא עייף קדם, אני חוזר, לשים וחיסול של המשתמשים שלה לקבל את השם של לבן הכובע SEO. אם לא הוא ציין המלצות אלה אם אתר האינטרנט אינו הוא קידום אתרים ידידותי, שווה אומרים, אם לא נמצא בכיוון. בקלות לזיהוי על-ידי מנוע חיפוש, הסיכון נופל באינטרנט עמוק, להפוך לבלתי נראה. בהתאם לסוג המוצר הוא רוצה לשווק, שם זה לבחור את התחום של העדפה, תחום מהרמה העליונה, הודות לזיהוי הללו אותיות קטנות המופיעות בסוף האינטרנט כיוונים; יהיה עליך גם לבחור השרת הנכון; . אנחנו חייב לכתוב הטקסטים עם צפיפות מספיקות, חוזרות מילות המפתח בתדירות הנחוצה. הכלים של הכובע הלבן SEO, בסכום, צריך הרמוניה האסטרטגיה הכוללת תמקם את המוצר. להיות גלויים במרחב הווירטואלי הוא טכני יותר מיוחדים, ואת גם דחוף: להתחרות מבלי להזדקק האינטרנט, היום, שווה ל פועל בעמדת נחיתות. ובל נשכח, אנחנו עדיין בשלב של פיתוח. של האינטרנט סמנטי שהתפתח ברנרס-לי, שיש לך סוף באינטרנט 2.0, עם אפשרויות בלתי צפויה של אינטרקום, משוב, כמו, אולי, לא מדיום אחר של תקשורת שזה עשה בהיסטוריה של האנושות; . ופנימה אופק מתווה של web 3.0, שבו, הוא speculates, בינה מלאכותית ישחק תפקיד מהפכני עם תהליך מידע ללקוח. מנועי החיפוש אנו מברכים, לדבר, להבין בדיוק מה אתם מחפשים? קשה לחזות את העתיד, אך הרעיון של חוויה מקוונת מותאמת אישית יכול להיות שינוי של 180 מעלות. להרשמה באינטרנט, לא רק האם יש צורך ליצור קשר עם יכולת מקצועית, אבל גם למען האמת. כנות, כאן, היא עניין של הישרדות: מנסה להשיג נקודות זכות, במרמה, הוא אטרקטיבי ביותר, גם מסוכן. עם parejo דגש שבה לקדם ולגשת הכובע הלבן עבור המשתמשים באינטרנט, מנועי החיפוש לרדוף אותם מתרגלים של הכובע השחור . בשפה המקצועית של כובע סחר, שחור הוא שם הכללי עבור כל הטריקים האלה כי מנהלי אתר לא ישר כל הזמן לרקום המתאים, במרמה, החלק העליון של רשימות חיפוש. תויונמוימ יכול להוביל אתר אינטרנט כדי לקבל סיווג רגעית טוב, אבל באינטרנט הכל קורה מהר, מלכודות הם ללא יוצא מהכלל, גם נוטים להתגלות במהירות.