ניהול ג'ובים של datapump
יש לי לקוח שמריץ סקריפטים שמגבים טבלאות מרכזיות במערכת שלו באמצעות שימש ב-data pump. זה פתרון לא רע בכלל כדי לשמור טבלאות לצרכי שחזור מהיר או להעברה לסביבות הפיתוח. הבעיה היא שהטבלאות שאותן מגבה הלקוח הן גדולות מאוד וה-export לוקח המון זמן (כמה שעות טובות).
לפעמים, נוצר לנו צורך ל"הציץ" לתוך התהליך של ה-export ולראות מה קורה איתו – באיזה מצב הוא נמצא, איזה טבלה הוא מייצא בנקודה מסויימת ועוד כמה זמן נשאר לתהליך. עקרונית, הסקריפט שלנו רץ ברקע (מתוך cron) והוא באמת שומר את ה-output לתוך קובץ log אבל זה לא מספיק כדי לענות על כל השאלות שיש ללקוח.
עוד מקרה שעלול להיווצר זה export (לדוגמה full) שאנחנו מבצעים אבל החלון שעבדנו בו נסגר מאיזושהי סיבה – הסיבה הנפוצה שלי היא ssh שנסגר בגלל אובדן תקשורת אבל זו יכולה להיות כל סיבה אחרת.
השאלה היא מה עושים במקרה הזה ודווקא השימוש ב-data pump jobs הופך את העניינים לפשוטים במיוחד.