‏הצגת רשומות עם תוויות virtualization. הצג את כל הרשומות
‏הצגת רשומות עם תוויות virtualization. הצג את כל הרשומות

יום שבת, 28 בדצמבר 2013

Zen Load Balancer Guide




לאחר שבנינו סביבה וירטואלית בעזרת Proxmox וחברנו מערכת אחסון בעזרת FreeNas השלב הבא מתמקד במשאבי הרשת בענן, על מנת שנוכל לתת שירות לכמות משתמשים ששרת בודד אינו יכול לתת, עלינו לחבר רכיב נוסף בענן שינתב את הבקשות בין מספר שרתים, הרכיב נקרא Load Balancer בחלק מהמקרים הוא מגיע עם מערכות FireWall מתקדמות אבל לרוב זאת יחידה נפרדת שמתחברת ל Router וממנו לעולם.

Load Balance


הרעיון מאוד פשוט מדובר על תוכנית שמנתבת את הבקשות לפי סוגים של מתודות שנקבעו מראש, ניתן לחבר מספר שרתים על אותו Balancer או לחבר מספר שכבות של Balancers ביחד במקרה שיש לנו תנועה כבדה לפיזור העמוסים בין שאר השרתים ב Cluster.

 Zen Load Balancer

כמו שראינו בשאר המאמרים בנושא גם פה נעשה שימוש ב Linux, מדובר על פרויקט חינמי שבנוי על מודל עסקי דומה כמו של Proxmox ו FreeNAS שהתשלום עבור תמיכה בלבד, כך שניתן להוריד ולהשתמש בו בחינם, בנוסף ניתן לקנות באתר הרשמי חומרה יעודית.

דרישות:
  • 2 מכונות Linux וירטואליות עם Apache.
  • Zen Load Balancer - האתר הרשמי
תהליך ההתקנה מאוד פשוט מכניסים את הדיסק ומתחילים לרוץ.

דומה לצורת ההתקנה של Proxmox ו FreeNAS

תפריט מסודר
טעינה ראשונית לזיכרון
בחירת כתובת סטטית
בחירת Netmask
בחירת Default Gateway
הגדרת סיסמא ל Root
הגדרות הכנון הקשיח
כתיבה לכונן הקשיח והפעלה מחדש

בסיום ההתקנה נפעיל את המכונה מחדש נפתח את הדפדפן בכתובת שהכנסנו בהתקנה ובפורט 444 שיכניס אותנו לממשק ניהול, עם הכניסה נבקש להכניס שם משתמש וסיסמא זמניים (admin , admin) ואח"כ נעבור לממשק, זהו סיימנו את ההתקנה בהצלחה.

בניתי 2 מכונות נוספות מבוססות על Fedora יחד עם Apache בכל יחד יש קובץ Index.htm שמתאר את השרת.



תחילה נבנה Farm (חווה) , נלחץ על Manage-> Farms, נבסס את ה Balancer על כתובת הראשית (192.168.1.10), נגדיר את הפרוטוקול ואת הפורטים שאותם נפצל לצורך הדוגמה מדובר בחווה של שרתי HTTP, אם לא בא לנו להשתמש בכתובת הראשית ניתן להוסיף Interfaces נוספים.


בהגדרות החווה נקבע את אופי ההתנהגות של ה Load Balancer ונחבר אליו את השרתים האמיתיים שנותנים את השירות:



הפונקציה החשובה ביותר היא בחירת האלגוריתם המתאים לפיצול העומסים, Zen Load Balancer תומך במספר אלגוריתמים כפי שנראה בתמונה:


  • Round Robin - פיצול שווה בין השרתים האמיתיים.
  • Hash Sticky Client - כל כתובת שמגיעה ל Balancer מקבלת מחרוזת ייחודית שמחברת אותה לשרת האמיתי כלומר התעבורה תמיד תעבור דרך אותו שרת.
  • Weight - חלוקה של ביצועים לפי השרתים האמיתיים כלומר השרת עם ה Weight הגבוה ביותר יקבל יותר תעבורה משרת עם Weight נמוך יותר, התעבורה תתחלק באופן יחסי לפי ה Weight.
  • Priority - השרת עם התעדוף הגבוה ביותר יקבל את התעבורה.

החווה שלנו דורשת עקביות בחיבור, במיוחד בשרותי Web שבהם יש Session שנוצר על המכונה האמיתית, נניח שיש לנו אתר עם חשבון אישי שהמידע נשמר ב Session, ברגע שהלקוח מתחבר לאתר נרצה שתמיד יגיע לאותו שרת על מנת לשמר את ה Session, לכן ה Load Balancer מכיל טבלה בה כתוב לאיזה שרת אמיתי כל כתובת התחברה ופעם הבאה שתגיע בקשה הוא ידאג להעביר אותה לשרת המקורי.


יש התייחסות חשובה לחומרה ב Load Balancer, יש להגדיר כמות זיכרון מספקת, ומעבדים יחסית חזקים במקרה שיש לנו תעבורה כבדה או שפשוט מייצרים Cluster של Load Balancer שמחלק בין עצמו את העמוסים לפני השרתים האמיתיים.

לאחר שסיימנו להגדיר את ההגדרות הכלליות של החווה השלב הבא הוא לשלב את השרתים האמיתיים, נכניס את הכתובות של השרתי Fedora:


זהו אפשר לומר שסיימנו וברגע שתגיע בקשה לכתובת ה Load Balancer הוא יעביר את הבקשה לאחד השרתים לפי האלגוריתם שנבחר.



סיכום:

בסדרת המאמרים בנושא ראינו כיצד לבנות ענן בעזרת תוכנות Open Source בלבד, שמבוססות על Linux והחלק האחרון הוא פתרון Firewall שאותו נכיר בהמשך, האמת שהמאמר הזה הוא סיבה טובה למסיבה, הוא המאמר האחרון לשנה והוא המאמר ה 100  בבלוג אז נתראה בשנה הבאה.

בהצלחה...

יום רביעי, 4 בספטמבר 2013

FreeNAS Guide




בהמשך למאמר MyCloud Guide (עבר קצת זמן...) הקמתי סביבה וירטואלית חינמית בעזרת ProxMox שמבוסס על KVM הפעם אתמקד על שירותי הקבצים בענן בעזרת סביבה חינמית נוספת שנקראת FreeNAS שמבוססת על FreeBSD ומאפשרת להגדיר שטחי אחסון שונים לסביבה הוירטואלית או בכלל לסביבת העבודה.

Network Attach Storage

רכיבי אחסון חיצוניים שנתונים שירותים שונים ע"ג הרשת ומאפשרים לשרתים ולסביבות עבודה לגשת למשאב בעזרת חיבורים סטנדרטים ואינם תלויים בשרת עצמו, מפרידים את שטח האחסון מהשרת שיוכל לבצע את המשימה שאליה הוא נדרש מבלי לנהל את הבקשות לכתיבה ולקריאה שאותן שולחים לשרת אחר שזה תפקידו.



ניתן להוריד את קובץ ה ISO מכאן, הפרוצדורה חוזרת על עצמה כמו שראינו בעבר, צורבים את ISO לדיסק ונותנים לו לרוץ במקרה שלי לצורך הדוגמה עשיתי את ההתקנה על תחנה וירטואלית.



שימו לב - צריכים לפחות 2 כוננים , על אחד מהם מתקינים את מערכת ההפעלה שלא תופסת יותר מידי ,והשני הוא שטח האחסון המרכזי, ניתן לחבר מספר דיסקים ב Raid על מנת לשמור על אמינות אבל על זה נדבר במאמרים הבאים.



בסיום טעינת המערכת מקבילים כתובת שדרכה מנהלים את ה Storage מהדפדפן , הממשק מאוד ידידותי וניתן לעשות איתו המון, ניתן להוריד Plugins עבור שירותים מיוחדים כמו BitTorrent , Streaming וכו'.



על מנת לבנות את ה Share הראשון יש להגדיר תחילה Volume עבור הדיסק, לצורך הדוגמה יצרתי דיסק בפורמט של UFS - Unix File System אבל ניתן לבחור פורמטים נוספים כמו NTFS - New Technology Files System שפותחה ע"י Microsoft.



ההרשאות מבוססות על Unix לצורך הדוגמה נתתי הרשאה 777 שמאפשרת קריאה וכתיבה של כל אחד, על מנת לאבטח את המערכת מומלץ ליצור פרופיל של משתמש חדש ולתת את ההרשאות המתאימות.



המערכת יודעת לתת שירותי CIFS - Common Internet File System שמתאימים למערכות Windows אבל גם שירותי NFS - Network File System עבור מערכות Linux שגם נתמכים ע"י Microsoft אבל מצריכים את ההתקנה של Service For Network File System כחלק מה Features שמגיעים עם מערכת ההפעלה, במקרה שלי יצרתי Share חדש מסוג CIFS ונתתי גישה עבור Guest User שזו הרשאה נוספת ברמת הפרוטוקול.



ניתן להוסיף עוד שירותים מגוונים על גבי שטח האחסון כמו FTP, NFS,ISCSI  וכדומה.




זהו ה Share מוכן לעבודה, אין כסף!


סיכום

מערכות אחסון הם עסק יקר מאוד אז אם יש ברשותכם מחשב ישן עם כמה כוננים מיותרים אתם יכולים לבנות לכם אחלה מכונת אחסון נוחה עבור כל המידע שלכם, יש גם המון חברות מסחריות שהטמיעו את המוצר כמו דיסני, האומות המאוחדות ועוד כל מיני גופים גדולים אחרים, היעוד של מערכת ההפעלה  כ OpenSource מאפשר לפתח פתרונות אחסון אמינים וזולים לפי דרישת הלקוח.

לאתר הרשמי


שנה טובה!

יום רביעי, 19 בדצמבר 2012

MyCloud Guide




כולם היום מדברים על עננים אבל לא על אלה שבשמיים, כל חברה בתחום המחשבים וההייטק צורכת או מייצרת שירותים שנגמרים במילה ענן שנהפכה בשנים האחרונות לפופולרית מאוד, בזכות העננים חברות לא צריכות להחזיק שרתים פיזיים והם יכולים לרכוש מחשבים וירטואלים על בסיס צורך ולפי עלות חודשית.

נושא העננים זה לא משהו חדש , חשבו עליו בשנת 1967, מהנדס מ IBM בשם  Gene Amdahl שפיתח את ארכיטקטורת ה Clustering , אבל מימוש Cluster באותה תקופה לא היה אפשרי לכל אחד, נדרשו משאבים רבים ועלויות כבדות, עכשיו אחרי 45 שנה אוטוטו 46 העולם נראה קצת אחרת הטכנולוגיה התקדמה מאוד והדולר נחלש מה שמאפשר לקנות חומרה טובה במחיר טוב ולנצל אותה במלואה בעזרת תוכנות מתוחכמות ומערכות Storage מתקדמות, בעקבות מהפכת הוירטואליזציה העסק הופך לזול וזמין.

Cluster

פעם כשדיברו על Cluster דיברו על סוג של מחשב על , מחשב שמחוברים אליו אלפי מחשבים שתופסים חדר ענק, אם תרשמו ב Google את המילה Cluster תבינו על מה אני מדבר, זה היה עסק מסורבל ויקר שמעטים מבינים בו אבל לאחר ש Linux נכנסה לשוק רשמית בשנת 1991,העסק התחיל לקבל תפנית והיום יש המון פתרונות מבוססי Linux ובחינם.

אז מה זה Cluster?

Cluster (אשכול) זה מספר מחשבים שנותנים שירותים ומתנהגים לפעמים כמחשב אחד,  החיבור בניהם מתבצע בעזרת רשת פנימית והרעיון שיש מחשב שמוגדר כ Master ושאר המחשבים מחוברים אליו כ Slaves , בעזרת שכבה וירטואלית שעוטפת את המחשבים ניתן לייצר כמות אינסופית של תחנות וירטואליות, כאשר רואים שאחד העבדים מתעייף מעבירים את התחנות הוירטואליות לעבד אחר או שמוסיפים עבד חדש.




הפתרונות בשוק מרובות, החברה הפופלרית ביותר בתעשייה היא VmWare שבהחלט פיתחו מערכת יפה, ניתן להוריד גרסה חינמית שאפשר להפעיל על שרת פיזי בודד, אם רוצים יותר ממחשב בודד צריכים לקנות רישיון ופה העסק קצת יקר, קיים פתרון נוסף שנקרא Proxmox שהרישיון שלו יותר גמיש ומאפשר לנו לחבר כמה עבדים שרוצים , התשלום עבור התמיכה בלבד.

נראה לי שחפרתי מספיק, קדימה לעבודה, דבר ראשון יש להיכנס לאתר של Proxmox ולהוריד את הגרסה האחרונה של המוצר Proxmox Ve, לצרוב על דיסק ולהכניס למחשב שאותו אנחנו רוצים להפוך ל Master של ה Cluster שלנו.


ההתקנה מאוד פשוטה, בסיום ההתקנה צריכים להגדיר את הרשת שלנו וזהו, עכשיו נתחיל להגדיר את ה Cluster, ניתן לנהל את ה Cluster דרך אתר מקומי או בעזרת SSH, יש פונקציות מסויימות שניתן לבצע רק דרך ה Console  כמו יצירת Cluster ,הוספת עבדים או מחיקת תחנות וירטואליות.

נכון שמדובר ב Master אבל הוא יכול להתנהג כעבד כמו שאר העבדים וניתן להתקין עליו תחנות וירטואליות למרות שזה לא כל כך מומלץ אחרי הכל הוא ה Master והוא המחשב שמתפעל לנו את כל ה Cluster לכן חשוב לשחרר ממנו משימות מיותרות אז כמו שאמרתי הדרך היחידה לעשות זאת היא דרך SSH.

#:pvecm create <cluster name>
מייצר Cluster על המחשב הנוכחי, מאותו רגע המחשב נהפך ל Master.

#:pvecm add <master address>
לאחר שהגדרנו את ה Master נבנה את העבדים, עושים את אותו תהליך ההתקנה כמו שעשינו עם ה Master רק שכאן אנחנו מצרפים את העבד ל Master.


אחרי שהגדרנו את המחשבים הפיזיים בעזרת ה SSH, מרבית העבודה שלנו תתמקד בממשק ה Web הנחמד שעשו לנו, שם נוכל לעקוב אחרי ה Cluster, לייצר מכונות וירטואליות חדשות , ליזום גיבויים, להעביר תחנות מעבד לעבד ע"פ מצב ה Cluster.


לפני שנעבור לשלב ההתקנות של המכונות הוירטואלית נושא אחסון המידע הוא קריטי וחיוני מאוד ל Cluster לכן צריך להתכונן בהתאם, לצורך הדוגמה יש ברשותי HD חיצוני שמכיל בתוכו כרטיס רשת של חברת WD משהו מאוד פשוט אבל מספיק טוב לדוגמה, לא חובה להשתמש ב Storage חיצוני ניתן להשתמש גם בכוננים שבמכונות הפיזיות.




ב Proxmox קיימות המון דרכים לחבר מערכות אחסון ל Cluster , ניתן להשתמש במערכות NFS, או ISCSI , אני אתמקד בהוספת Directory כ Storage בעזרת פרוטוקול CIFS, גם פה הדרך היחידה לבצע זאת היא דרך ה SSH, ניצור תיקייה חדשה בתיקיית ה Mnt ב Master ונעשה Mount.

#:mkdir /mnt/wdmybook
#:/mount //192.168.1.2/share -t cifs /mnt/wdmybook


בממשק ה Web יש ללכת לתגית Storage וללחוץ על Add -> Directory.



נכניס את הנתיב לתיקייה שעשינו Mount ונבחר איזה סוג של Content ה Storage מאחסן (דיסקים וירטואלים, ISO, גיבויים), אפשר לשלב כמה סוגים של Contents.


על מנת לבנות תחנות וירטואליות צריך קבצי ISO של מערכות ההפעלה, יש ללחוץ על המכונה הרצויה וללחוץ על אחד הכוננים, בתגית Content יש אפשרות להעלות את קבצי ISO לשטח האחסון.

יש 2 סוגי חשבונות במערכת, חשבון ה Root מבוסס על חשבון מסוג Linux PAM standard authentication שמנהל את ה Cluster , מוסיף משתמשים ועבדים למערכת, אבל הוא אינו יכול לגשת למכונות הוירטואליות יש לייצר משתמש חדש עם חשבון מסוג Proxmox VE authentication server ולהכניס לו שם משתמש וסיסמא, אפשר להגדיר גם את ההרשאות של המשתמש.

שלב התקנת המכונות הוירטואליות מאוד דומה לשאר המערכות שקיימות בשוק, בעצם מתחיל Wizard שבו מאפיינים את המכונה, מעבדים,כמות זכרון, כונן קשיח ורשת.

בחירת מערכת ההפעלה.



בחירת ה ISO של ההתקנה שמאוחסן בכונן החיצוני


פה הסיפור קצת מעניין לצורך הדוגמה השתמשתי ב Distribution נחמד של Linux בשם SliTaz, בעצם מדובר על מערכת Linux לכל דבר בגודל 35 Mb בלבד וממשק KDE.

נפח כונן הקשיח.




הגדרת זיכרון.



הגדרות רשת.



זהו, מה שנשאר זה להריץ את המכונה ויש לכם Cluster.




סיכום:

עננים משנים את התפיסה שהתרגלנו להכיר בעשור האחרון, זה תחום חדש שיביא לעולם הרבה חברות חדשות אבל יהרוג חברות ותיקות, כנראה שהעתיד שלנו יהיה בענן ולא יותר אצלנו בבית, בעזרת קווי אינטרנט מהירים והטכנולוגיה עולם המחשבים מתקרב לפריצת דרך רצינית ולמרות שכבר היום ניתן למצוא המון שירותים מבוססי ענן הפוטנציאל הוא אדיר ואנחנו רק בתחילתו של התהליך.

יש עננים?

יום שישי, 26 בנובמבר 2010

BackTrack 4 Network VirtualBox


התקנתי BackTrack 4 ע"ג מכונה שהגדרתי על ה VirualBox , מסתבר שבניגוד לגרסה 3 מגיעה ערכת התקנה נוחה, לאחר שהתקנתי ה BackTrack אפשריות הרשת שלה מכובות ולא הצלחתי לקבל כתובת מ DHCP.

דבר ראשון בדקתי את ההגדרות ב VirtualBox.


נגדיר את הכרטיס רשת כ Bridged Adapter על מנת שנוכל לקבל כתובת מה DHCP.

נריץ את הפקודה הבאה:

#: /etc/init.d/networking start


המערכת תחפש כרטיסי רשת חדשים שירשמו לקובץ Interface נציג את קובץ:
#: cat /etc/network/interfaces


ניתן לערוך את קובץ ה Interfaces לצורך הגדרת כתובת Static:
 
auto eth0
iface eth0 inet static
address 192.168.1.100
netmask 255.255.255.0
network 192.168.1.1
broadcast 192.168.1.255
gateway 192.168.1.1

או למחוק כרטיסי רשת שלא רלוונטים.


ניתן לבצע את הפקדות האלו ישירות ב BOOT ע"י הפקודה הבאה:
#: update-rc.d networking defaults
בהצלחה...

יום ראשון, 21 בנובמבר 2010

VirtualBox Screen Size

התקנתי VirtualBox ויצרתי מכונה חדשה מסוג Linux, כשהפעלתי את ה KDE של Fedora גילתי שגודל המסך המירבי שלי הוא 800x600 , שמקשה מאוד על העבודה, קיימים המון דרכים לחיבור מרחוק, אבל רציתי לפתור את הבעיה דרך ה Host ולא דרך ה Service.

מסתבר שהדרך לפתרון היא די פשוטה , דבר ראשון מומלץ להוריד את Install Guest Additions , תוכנה שמוסיפה כלים ואפשריות נוספות בין ה Host למכונה שלנו.


ה Host מוריד למכונה שלנו ISO שמכיל את הגרסאות של התוכנה, נבחר את המערכת ההפעלה הרצויה במקרה שלי Linux , ונריץ את ההתקנה:



#: sudo sh /usr/vboxlinuxadditions.sh

לאחר מכן יש לערוך את קובץ  xorg.conf שנמצא:
/etc/X11/xorg.conf

יש לערוך את הבלוק הזה:

Section "Screen"
  SubSection "Display"
    Depth      24
    Modes   "1920x1080"  "1024x786" "800x600" "640x480"
  EndSubSection
  Device       "Device[0]"
  Identifier   "Screen[0]"
  Monitor      "Monitor[0]"
EndSection

השורה המסומנת באדום מסמנת את הגדרות הריזולציה שברצוננו להשתמש, נשמור את הקובץ ונפעיל מחדש, חשוב מאוד!! לגבות את Xorg.conf ,הגדרה של ריזולציה שלא נתמכת ע"י הכרטיס מסך של ה Host עלולה להפיל את מערכת ההפעלה.

יום ראשון, 3 באוקטובר 2010

Vmware: snapshot failure

מה עושים כאשר נמחק (באופן ידני) או שה SNAPSHOT נהרס ולא ניתן לטעינה בהעלת המכונה הוירטואלית?
לי היתה בעיה כזאת ,מסתבר כאשר נגמר המקום ב HOST ורוצים לעשות SNAPSHOT חדש מקבלים הודעה שאין מספיק מקום ב DATA CENTER עבור ה SNAPSHOT ו VMWARE במקרה שלי ESXI מוריד אוטומטי את המכונה הוירטואלית ולא ניתן להפעיל את המכונה הוירטואלית עד שמפנים מקום ב DATA STORAGE, במקרים מסויימים גם כשמנסים למחוק את ה SNAPSHOT בעזרת ה SNAPSHOT MANAGER המכונה הוירטואלית לא עולה ומקבלים ב EVENTS הודעה מסוג זה:


ובכן, כל SNAPSHOT מייצר קבוצה של קבצים ומשנה את הקובץ ההגדרות של המכונה ל SNAPSHOT האחרון שנעשה.

קיימים שני קבצים עיקריים שצריכים לערוך על מנת לחזור ל SNAPSHOT האחרון שעובד, קודם כל יש לפתוח את תוכנת ה VmWare- Vsphere Client לוחצים על ה HOST ובוחרים CONFIGURATION ואז STORAGE


כשנלחץ על Browse Datastore היפתח לנו מנהל קבצים עם ספריות של שמות המכונות הוירטואליות, ניכנס לספרייה של המכונה שלא עולה ונחפש את הקבצים הבאים:
[Machine_name].vmx
[Machine_name].vmsd

קובץ VMX אחראי על ההגדרות של המכונה הוירטואלית, וקובץ ה VMSD אחראי על ה SNAPSHOT עבור המכונה הוירטואלית.

תחילה נערוך את קובץ ה VMSD , עבור כל SNAPSHOT נוצר בלוק בקובץ שמתחיל ב:
snapshot0.uid = "1"
ה SNAPSHOT הראשון של המערכת SNAPSHOT0 , שווה ל 1 כלומר ה ID של ה SNAPSHOT הראשון ובעצם מאפשר לנו לשנות כבר פה מה יהיה ה SNAPSHOT הראשון שהיטען.
הבלוק נגמר עם הקישור ל HD הפיזי שעל ה HOST

snapshot0.disk0.node = "ide0:0"
במקרה שלי זה היה ה SNAPSHOT השלישי:

snapshot2.uid = "3"

נמחק את הבלוק של ה SNAPSHOT הבעייתי מהקובץ ובנוסף בראש הקובץ מופיע הפרמטר הבא:

snapshot.lastUID = "3"

ונשנה אותו ל SNAPSHOT הנבחר:
snapshot.lastUID = "2"
נשמור את הקובץ ונעלה לשרת (חשוב מאוד!!! לגבות את הקבצים).

עבור כל SNAPSHOT נוצר הקובץ שמכיל את ה DELTA שבין ה SNAPSHOT ל SNAPSHOT, נזהה את הקובץ בסיומת VMDK , השם של הקובץ מתאר את מספר ה SNAPSHOT כלומר: Machine-000003.vmdk.

נערוך את הקובץ VMX ונשנה את הפרמטר
ide0:0.fileName = Machine-00002.vmdk
נשמור את הקובץ ונעלה אותו לשרת,
נפעיל מחדש את המכונה הוירטואלית.

בהצלחה...

יום שבת, 17 ביולי 2010

Passthrough Vmware

נתקלתי בדבר מעצבן בהגדרת שרת VMWARE ESXI , ובכן כל העניין היה באיך אני מגדיר TOKAN ישן לאחת מהמכונות הקיימות ע"ג ה HOST המרכזי?

יש אפשרות לשנות את הגדרות ה DEVICES הקיימים במערכת, במקום שהכתובת הפיזית של ה DEVICE תהיה מוגדרת דרך ה KERNEL של ה VMWARE ובעצם המערכות הוירטואליות התממשקו וירטואלית ל DEVICE ניתן לקשר את הכתובת הפיזית ישירות למכונה הוירטואלית דרך אפשרות PASSTHROUGH, אבל החיסרון יהיה שה DEVICE יהיה זמין רק למערכת וירטואלית אחת.

1. הגדרת PASSTHROUGH:

HOST --> CONFIGURATION --> ADVANCED SETTINGS






2. לבחור את ה DEVICE שאנחנו מעוניינים לעשות לו PASSTHROUGH

3.לעשות RESTART ל HOST.



4.לאחר ה RESET יש לבחור את השרת שאנו מעוניינים לצרף אליו את הכתובת הפיזית.



5. ללחוץ על EDIT SETTINGS ולהוסיף חומרה חדשה ב ADD




6.יש לבחור ב PCI DEVICE וללחוץ NEXT


7. יש לבחור את ה DEVICE שבחרנו בשלב ה 2.

בהצלחה.