ksf material nanopar

Embed Size (px)

Citation preview

  • 7/27/2019 ksf material nanopar

    1/32

    11/7/2009

    Workshop Pengolahan DataSeismik Menggunakan SUVolume 1: Reformat Data - Dekonvolusi

    Befriko Murdianto

  • 7/27/2019 ksf material nanopar

    2/32

    Befriko Murdianto

    1

    Workshop Pengolahan Data Seismik

    Menggunakan SU

    Volume 1: Reformat Data - Dekonvolusi

    Pada kesempatan kali ini kita akan melakukan pengolahan data seismik menggunakan perangkat lunak

    Seismic Un*x (SU) dari Center for Wave Phenomena, Colorado School of Mines. SU dapat diunduh dari

    alamathttp://www.cwp.mines.edu/cwpcodes/index.html,sedangkan mengenai instalasi SU tidak akan

    dibahas secara khusus pada workshop ini. Para peserta diharapkan memiliki pengetahuan yang memadai

    mengenai sistem operasi Unix atau pun yang sejenis dengannya, misalnya GNU/Linux atau Mac OS. SU

    adalah ekstensi dari Unix, sehingga pemahaman mengenai Unix dan shell scripting sangat bermanfaat

    untuk menggunakan SU. Pengetahuan dasar mengenai seismik refleksi juga diperlukan untuk memahami

    beberapa istilah dan metoda yang akan digunakan pada workshop ini.

    Mengenali Format SEG-Y dan SU

    SEG-Y adalah format standar data seismik yang dikeluarkan oleh Society of Exploration Geophysicists

    (SEG). SEG-Y umumnya digunakan untuk data seismik yang telah mengalami pemrosesan, sehingga

    terdapat harga-harga koordinat di headernya. Format umum untuk data lapangan adalah SEG-D, namun

    pada workshop ini format SEG-D tidak akan dibahas secara khusus karena data yang akan kita gunakan

    sudah dalam bentuk format SEG-Y.

    Bagian pertama dari data SEG-Y adalah EBCDIC header berukuran 3200 byte yang biasanya memuat

    informasi mengenai siapa yang mengambil dan memproses data tersebut, serta proses apa saja yang telah

    dilakukan pada data tersebut.

    Bagian kedua dari data SEG-Y adalah binary header yang berukuran 400 byte. Informasi yang terdapat

    pada binary header ini adalah jumlah sampel tiap trace, sample interval dan format trace data.

    Bagian ketiga dari data SEG-Y adalah trace header yang berukuran 240 byte. Informasi yang terdapat

    pada trace header ini adalah nomor field record, nomor CDP, koordinat sumber seismik, koordinat

    penerima, dan lain-lain. Bagian terakhir adalah data trace seismik itu sendiri.

    http://www.cwp.mines.edu/cwpcodes/index.htmlhttp://www.cwp.mines.edu/cwpcodes/index.htmlhttp://www.cwp.mines.edu/cwpcodes/index.htmlhttp://www.cwp.mines.edu/cwpcodes/index.html
  • 7/27/2019 ksf material nanopar

    3/32

    Befriko Murdianto

    2

    Gambar 1.Format data SEG-Y.

    Format SU mirip dengan SEG-Y, hanya saja tanpa EBCDIC dan binary header. Jadi format SU hanya

    terdiri dari 240 byte trace header dan data trace seismik itu sendiri. Perlu diketahui bahwa format SEG-Y

    yang digambarkan di sini adalah SEG-Y rev 0. Mulai tahun 2002, SEG mengeluarkan format SEG-Y baru

    yang disebut dengan SEG-Y rev 1. Informasi mengenai SEG-Y rev 1 ini dapat dilihat di

    http://www.seg.org/SEGportalWEBproject/prod/SEG-Publications/Pub-Technical-

    Standards/Documents/seg_y_rev1.pdf.

    Latar Belakang Data yang Akan Digunakan

    Data yang akan digunakan pada workshop ini adalah data seismik 2-dimensi (2D) laut yang ditembak

    oleh Geco-Prakla pada tahun 1983 di North Sea. Survei ini merupakan bagian dari Southern North Sea

    Tie survey yang bertujuan untuk mengikat data sumur dengan data seismik, namun data sumurnya tidak

    tersedia untuk workshop ini.

    File yang akan digunakan adalah startshot_original.segy dalam format SEG-Y. Untuk contoh di sini, data

    saya taruh di dalam direktori /local/lfs1/data/workshop/data. Anda harus mengganti direktori data input

    ini sesuai letaknya masing-masing sebelum menjalankan script contoh di dalam manual ini.

    Data input yang kita miliki bukan benar-benar raw field data, tetapi telah mengalami tahap-tahap pre-

    processing sebagai berikut:

    http://www.seg.org/SEGportalWEBproject/prod/SEG-Publications/Pub-Technical-Standards/Documents/seg_y_rev1.pdfhttp://www.seg.org/SEGportalWEBproject/prod/SEG-Publications/Pub-Technical-Standards/Documents/seg_y_rev1.pdfhttp://www.seg.org/SEGportalWEBproject/prod/SEG-Publications/Pub-Technical-Standards/Documents/seg_y_rev1.pdfhttp://www.seg.org/SEGportalWEBproject/prod/SEG-Publications/Pub-Technical-Standards/Documents/seg_y_rev1.pdfhttp://www.seg.org/SEGportalWEBproject/prod/SEG-Publications/Pub-Technical-Standards/Documents/seg_y_rev1.pdf
  • 7/27/2019 ksf material nanopar

    4/32

    Befriko Murdianto

    3

    Tugas:Tentukan jenis filter apakah yang digunakan sebagai 90 Hz anti-alias filter! (Low-cut/High-

    cut/Band-pass?)

    Berikut ini adalah informasi mengenai geometri survey:

    Shotpoint (SP) interval: 25 m Group interval: 12.5 m Arah penembakan: 60 derajat Near-trace offset: 150 m Jumlah channel: 240 Nomor trace terdekat: 1

    Karena data yang kita terima telah mengalami proses pembuangan trace selingan (alternate traces), maka

    geometri survey setelah trace drop adalah:

    Shotpoint (SP) interval: 25 m Group interval: 25 m Arah penembakan: 60 derajat Near-trace offset: 150 m

  • 7/27/2019 ksf material nanopar

    5/32

    Befriko Murdianto

    4

    Jumlah channel: 120 Nomor trace terdekat: 1

    Berdasarkan informasi di atas, maka dapat kita hitung jumlah fold nominal di dalam CDP gather dengan

    rumus:

    SI

    GIchannelJumlahfoldCDP

    2,

    dengan SI dan GI adalah shot dan group interval.

    Untuk geometri survei sebelum trace drop, jumlah fold nominal dalam CDP adalah:

    60252

    5.12240

    foldCDP .

    Sedangkan untuk geometri survei setelah trace drop, jumlah fold nominal dalam CDP adalah:

    60252

    25120

    foldCDP .

    Perhatikan bahwa jumlah fold dalam CDP tidak berubahsetelah membuang trace selingan dalam shot

    gathers.

    Selain informasi mengenai geometri, biasanya ada informasi tambahan mengenai shot mana yang

    bagus/jelek dan trace mana yang bagus/jelek. Informasi ini biasanya terdapat di observers log. Berikut

    adalah informasi mengenai shot dan trace yang bagus/jelek dari observers log:

    SP pertama di dalam tape: 9323 SP terakhir di dalam tape: 9625 File pertama di dalam tape: 9302 File terakhir di dalam tape: 9602 Missing SP: 9364 dan 9475 Bad records: Tidak ada Bad traces: Field traces 12, 43, 62, 123, 234, 239, 240 Reverse polarity traces: Field traces 203 dan 209

    Perhatikan bahwa setelah trace drop, maka bad traces yang ada hanya field traces 43, 123, dan 239.

  • 7/27/2019 ksf material nanopar

    6/32

    Befriko Murdianto

    5

    Reformat Data SEG-Y ke SU

    Setelah kita mendapatkan informasi yang kita perlukan untuk memproses data, maka kita siap untuk

    melakukan reformat data dari format SEG-Y ke dalam format SU. Script yang akan kita gunakan adalah

    001_Reformat.sh. Berikut adalah isi script 001_Reformat.sh:

    #! /bin/sh

    # Reformat from SEG-Y to SU

    # Input data directoryDATADIR=/local/lfs1/data/workshop/dataDATAIN=$DATADIR/startshot_original.segyDATAOUT=$DATADIR/startshot_original.su

    # Check output file. If exists, no need to re-read SEG-Yif [ ! -f $DATAOUT ]

    then

    segyread tape=$DATAIN endian=0 | segyclean >$DATAOUTfi

    # Get range of header valuesprintf "Range of header values for $DATAOUT: \n"surange

  • 7/27/2019 ksf material nanopar

    7/32

    Befriko Murdianto

    6

    Gambar 2.Output perintah surange.

    Perhatikan bahwa jumlah trace adalah 36.120, hal ini sesuai dengan jumlah file kita yaitu 301, di mana

    tiap file memiliki 120 traces. Informasi surangeini berguna untuk mengecek kelengkapan data dan

    processing selanjutnya.

    Output dari near trace plot adalah sebagai berikut:

    Gambar 3.Near trace plot.

  • 7/27/2019 ksf material nanopar

    8/32

    Befriko Murdianto

    7

    Tugas:Tentukan struktur geologi yang dapat Anda lihat!

    Menampilkan Shot Gathers

    Setelah kita melakukan konversi dari format SEG-Y ke SU, kita dapat menampilkan data shot gathers

    untuk melakukan analisis awal mengenai kualitas data dan jenis bising yang terdapat pada data untuk

    menentukan langkah apa selanjutnya yang dapat mengurangi bising tanpa merusak sinyal primaries.

    001_Display_Shots.sh adalah script yang kita gunakan untuk menampilkan data shot gathers. Script ini

    menampilkan shot gathers setiap 750 m (kelipatan 30 untuk SP interval 25 m), dimulai dari shot pertama

    hingga terakhir dengan jumlah shot yang akan ditampilkan sebanyak 10 shots. Perintah suwind

    digunakan kembali untuk memilih shot yang akan ditampilkan. Perhatikan bagaimana kali ini saya

    menggunakan suwinddengan parameter key=fldr min=9302 max=9602 j=30untuk memilih setiap 30

    shots. Sedangkan parameterperc=99, wclip=-0.5 bclip=0.5digunakan untuk mengatur tampilan agar

    memiliki level amplitudo yang sama dengan tampilan shot gathers pada proses berikutnya sehingga kita

    bisa mengamati perubahan amplitudo secara relatif dari tiap-tiap proses pengolahan data.

    #! /bin/sh

    # Display shot gathers, starting from the first to the last, incrementingevery 30 shots

    # Input data and directoriesDATADIR=/local/lfs1/data/workshop/dataINDATA=$DATADIR/startshot_original.su

    # Define display parametersminfldr=9302maxfldr=9602inc=30percentile=99

    minclip=-0.5maxclip=0.5

    # Display shot gathers with suximagesuwind

  • 7/27/2019 ksf material nanopar

    9/32

    Befriko Murdianto

    8

    Gambar 4.Tampilan raw shot gathers. Perhatikan reversed traces yang ditandai oleh panah.

    Tugas:Lakukan analisis terhadap kualitas data input! Apakah yang dapat Anda simpulkan?

  • 7/27/2019 ksf material nanopar

    10/32

    Befriko Murdianto

    9

    Melakukan Trace Editing

    Langkah berikutnya adalah melakukan trace editing pada bad dan reversed traces berdasarkan informasi

    yang kita miliki dari observers log. Di sini saya membuat 2 script, script pertama melakukan koreksi

    terhadap reversed polarity traces, script kedua melakukan koreksi terhadap bad traces. Untuk mengoreksi

    reversed polarity traces, cukup mengalikan trace tersebut dengan skalar -1 sehingga polaritasnyamembalik ke arah yang benar, sedangkan untuk mengoreksi bad traces, cukup dengan membunuh trace

    tersebut.

    Berikut ini adalah script 002_Reverse_Traces.sh untuk membalikkan reversed polarity traces:

    #! /bin/sh

    # A script to correct reversed traces.

    # Input and output data directoryDATADIR=/local/lfs1/data/workshop/dataDATAIN=$DATADIR/startshot_original.su

    DATAOUT=$DATADIR/startshot_reversed.su

    # Define trace numbers that are going to be reversedREV_TRC=???

    # Select traces that are going to be reversedsuwind $DATADIR/revtraces.su

    # Correct reversed tracessuop $DATADIR/negtraces.su

    # Select traces that are NOT going to be reversedsuwind $DATADIR/goodtraces.su

    # Combine and sort good and corrected tracescat $DATADIR/goodtraces.su $DATADIR/negtraces.su | susort fldr tracf>$DATAOUT

    # Remove unnecessary filesrm -f $DATADIR/revtraces.su $DATADIR/negtraces.su $DATADIR/goodtraces.su

    exit 0

    Tugas:Isilah parameter REV_TRC sesuai informasi dari observers log!

    Perhatikan bagaimana saya menggunakan combinasi suwinddan suopuntuk melakukan pembalikan

    trace. Pertama-tama saya pilih reversed traces menggunakan perintah suwinddengan parameter

    key=tracf max=0 accept=$REV_TRC. Kemudian saya balikkan polaritas dari reversed traces dengan cara

    mengalikan traces yang telah saya pilih tersebut dengan -1 menggunakan perintah suop op=neg. Setelah

    itu, saya pilih traces yang tidak mengalami pembalikan polaritas untuk nantinya digabungkan dengan

    reversed traces yang sudah dibalik polaritasnya. Pemilihan traces ini kembali menggunakan perintah

    suwind, kali ini parameter yang saya gunakan adalah key=tracf reject=$REV_TRC. Perhatikan

  • 7/27/2019 ksf material nanopar

    11/32

    Befriko Murdianto

    10

    penggunaan parameter acceptdan reject. Pada suwindpertama, acceptberarti saya hanya mengambil

    traces yang saya masukkan ke $REV_TRC, sedangkan pada suwindkedua, rejectberarti saya membuang

    traces yang masuk ke dalam $REV_TRC.

    Proses terakhir adalah menggabungkan antara traces yang bagus dengan reversed traces yang telah saya

    balik polaritasnya. Penggabungannya dapat menggunakan perintah Unix cat, namun perlu diperhatikanbahwa setelah penggabungan, nomor field record dan nomor trace data kita tidak akan berurutan karena

    sebelumnya data sudah kita pecah-pecah sesuai nomor traces yang bagus dan yang reversed. Karena itu,

    setelah datanya digabungkan perlu kita urutkan kembali seperti semula menggunakan perintah susort.

    Kata kunci pertama yang saya gunakan untuk sorting adalahfldrdan kata kunci keduanya adalah tracf.

    Berarti data output kita akan memiliki hargafldr (field record) yang berurutan, di mana di dalam masing-

    masingfldr, harga tracfjuga akan berurutan.

    Langkah berikutnya adalah membunuh trace yang jelek dengan sukill. Script 002_Kill_Traces.sh adalah

    script yang saya gunakan:

    #! /bin/sh

    # A script to kill bad traces.

    # Input and output data directoryDATADIR=/local/lfs1/data/workshop/dataDATAIN=$DATADIR/startshot_reversed.suDATAOUT=$DATADIR/startshot_edited.su

    # Define trace numbers that are going to be killedKILL_TRC=???

    # Number of traces to be killed (KILL_TRC*NUMBER_OF_FLDR)COUNT=???

    # Select traces that are going to be killedsuwind $DATADIR/badtraces.su

    # Kill bad tracessukill $DATADIR/killedtraces.su

    # Select traces that are NOT going to be killedsuwind $DATADIR/goodtraces.su

    # Combine and sort good and killed tracescat $DATADIR/goodtraces.su $DATADIR/killedtraces.su | susort fldr tracf>$DATAOUT

    # Remove unnecessary filesrm -f $DATADIR/badtraces.su $DATADIR/killedtraces.su $DATADIR/goodtraces.su

    exit 0

    Tugas:Isilah parameter KILL_TRC dan COUNT!

  • 7/27/2019 ksf material nanopar

    12/32

    Befriko Murdianto

    11

    Script ini mirip dengan script 002_Reverse_Traces.sh sebelumnya. Pemilihan traces yang bagus dan jelek

    dilakukan dengan menggunakan perintah suwindseperti script sebelumnya. Perhatikan penggunaan

    perintah sukilluntuk membunuh bad traces dengan parameter count=$COUNTyang menyatakan jumlah

    bad traces yang akan dibunuh. Penggabungan trace kembali sama seperti sebelumnya, yaitu

    menggunakan perintah Unix catdan perintah susortdari SU.

    Gambar 5.Tampilan shot gathers setelah trace editing.

  • 7/27/2019 ksf material nanopar

    13/32

    Befriko Murdianto

    12

    Di atas adalah tampilan shot gathers setelah trace editing. Tampilan ini dihasilkan menggunakan script

    001_Display_Shots.sh dengan mengganti input file-nya. Perhatikan bahwa masalah reversed traces di

    Gambar 4 sekarang sudah diperbaiki (tanda panah).

    Pengujian Penguatan Amplitudo (Amplitude Gain Test)Sejauh ini kita masih belum bisa melihat data di bawah 2.5 s dengan jelas, karena itu kita perlu

    melakukan gain test untuk menentukan scaling yang optimal agar amplitudo data kita terlihat seimbang.

    Script 003_Gain_Test.sh akan membantu kita untuk menentukan gain apa yang sesuai untuk data ini. Di

    script ini saya memilih 4 jenis gain, terdiri dari 3 time power gain dan 1 exponential gain. Silakan Anda

    memilih sendiri parameter untuk ketiga jenis gain ini lalu tentukan mana yang Anda pilih beserta

    alasannya.

    #! /bin/sh

    # Plot amplitude curve, to choose appropriate scaling

    # Input data and directoriesDATADIR=/local/lfs1/data/workshop/dataINDATA=$DATADIR/startshot_edited.su

    # Define field file number that you chooseFILE_NUM=9302OUTDATA=$DATADIR/fldr${FILE_NUM}.su

    # Select single shot gathersuwind $OUTDATA

    # Define various gainstpow1=???

    tpow2=???tpow3=???epow1=???

    # Display raw data and its amplitude curvesuximage

  • 7/27/2019 ksf material nanopar

    14/32

    Befriko Murdianto

    13

    sugain

  • 7/27/2019 ksf material nanopar

    15/32

    Befriko Murdianto

    14

    Gambar 6.Shot gather sebelum (bawah) dan setelah gain menggunakan parameter yang saya pilih.

    Gambar di atas menunjukkan shot gather sebelum (bawah) dan setelah gain dengan parameter yang saya

    pilih. Dari keempat jenis gain ini, saya dapat secara kualitatif menentukan gain mana yang paling optimal

    berdasarkan kriteria tertentu. Perhatikan bahwa untuk kelima panel saya menggunakan skala dinamik

    yang sama, seperti tertera di color bar.

  • 7/27/2019 ksf material nanopar

    16/32

    Befriko Murdianto

    15

    Kadang agak sulit untuk melakukan penilaian kualitatif berdasarkan tampilan data. Ada kalanya kurva

    amplitudo dapat membantu untuk menentukan pemilihan parameter. Script 003_Gain_Test.sh juga

    menghasilkan plot kurva amplitudo untuk membantu kita menentukan gain mana yang paling optimal.

    Gambar 7.Kurva amplitudo untuk parameter yang saya gunakan. Paling kiri adalah kurva amplitudo sebelum gain.

    Tugas:Tentukan jenis gain mana yang Anda sukai beserta alasannya!

  • 7/27/2019 ksf material nanopar

    17/32

    Befriko Murdianto

    16

    Membuat Spektrum Amplitudo

    Langkah selanjutnya yang akan kita lakukan adalah menapis (filter) data dengan tujuan untuk membuang

    bising. Namun sebelum kita menentukan frekuensi mana saja yang akan kita saring, kita harus melihat

    spektrum amplitudo terlebih dahulu untuk menentukan frekuensi mana yang termasuk bising dan manayang bukan.

    Teori mengenai spektrum ini adalah transformasi Fourier, di mana suatu waveform dalam domain waktu

    dapat didekomposisikan menjadi komponen spektra amplitudo dan fasa dalam domain frekuensi.

    Gambar 8.Transformasi Fourier.

    Script 003_Spectrum.sh di bawah ini adalah yang saya gunakan untuk membuat spektrum amplitudo:

    #! /bin/sh

    # Make amplitude spectrum, both linear and db scale

    # Input data and directoriesDATADIR=/local/lfs1/data/workshop/dataFILE_NUM=9302INDATA=$DATADIR/fldr${FILE_NUM}.su

    # Make F-X spectrum, linear scalesuwind

  • 7/27/2019 ksf material nanopar

    18/32

    Befriko Murdianto

    17

    suwind

  • 7/27/2019 ksf material nanopar

    19/32

    Befriko Murdianto

    18

    Tugas:Lakukan analisis spektrum! Apa yang dapat Anda simpulkan dari spektrum amplitudo ini?

    Melakukan Penapisan (Filtering) untuk Membuang Bising

    Setelah kita menganalisis spektrum amplitudo dan menentukan rentang frekuensi berapa yang masuk ke

    dalam bising, kita dapat melakukan penapisan terhadap data. Namun sebelum melakukan penapisan ini,

    kita harus memahami dulu karakter bising yang terdapat pada data kita. Berikut ini adalah jenis-jenis

    bising yang umum terdapat pada data seismik laut:

    Tugas:Dari daftar tersebut, tentukan manakah yang terdapat pada data yang akan kita olah!

    Tapis secara umum dapat didefinisikan dengan 4 frekuensi pojok atau pun 2 frekuensi pojok dan 2

    kemiringan, seperti gambar di bawah ini:

    Gambar 10.Pendefinisian tapis.

  • 7/27/2019 ksf material nanopar

    20/32

    Befriko Murdianto

    19

    Dalam workshop ini, kita akan menggunakan pendefinisian tapis menggunakan 4 frekuensi pojok, yaitu

    f1, f2, f3 dan f4. f4< frekuensi < f1 akan ditapis total, sedangkan antara f1 f2 dan f3 f4 akan ditapis

    sebagian. Script 004_Filter.sh adalah script yang saya gunakan untuk melakukan penapisan frekuensi ini.

    #! /bin/sh

    # Design a low-cut filter to remove linear noise

    # Input/output data and directoriesDATADIR=/local/lfs1/data/workshop/dataFILE_NUM=9302INDATA=$DATADIR/fldr${FILE_NUM}.suOUTDATA=$DATADIR/fldr${FILE_NUM}_filtered.su

    # Define filter freqs.f1=???f2=???f3=???f4=???

    # Apply chosen gain in 003_Gain_Test.shsugain $DATADIR/fldr${FILE_NUM}_gained.su

    # Display data without filtersuximage

  • 7/27/2019 ksf material nanopar

    21/32

    Befriko Murdianto

    20

    Gambar 11.Shot gather sebelum (bawah) dan setelah (tengah) penapisan dan beda antara keduanya (atas).

    Tugas:Tentukan jenis bising yangberhasil kita buang dari data!

  • 7/27/2019 ksf material nanopar

    22/32

    Befriko Murdianto

    21

    Merancang Outside Mute

    Salah satu jenis bising lain yang ingin kita buang dari data kita adalah direct wave sebagai akibat

    gelombang seismik yang merambat langsung di permukaan air menuju ke receiver. Tampilan direct wave

    ini pada penampang shot gather berupa garis lurus dan memiliki waktu tiba yang paling awal. Untuk

    membuang direct wave ini kita gunakan outside mute yang dapat kita tentukan secara interaktifmenggunakan suxpicker. Script 004_Design_Shot_Mute.sh di bawah ini akan menampilkan window

    interaktif di SU untuk melakukan picking (Gambar 12).

    #! /bin/sh

    # Design an outside mute on shot gathers

    # Input data and directoriesDATADIR=/local/lfs1/data/workshop/dataFILE_NUM=9302INDATA=$DATADIR/fldr${FILE_NUM}_filtered.suOUTPICK=shotmute.txt

    # Interactively pick mutessuxpicker

  • 7/27/2019 ksf material nanopar

    23/32

    Befriko Murdianto

    22

    Perhatikan bahwa pertama kali suxpickermuncul, ia akan berada dalam modus View Only sehingga

    tidak memungkinkan kita untuk melakukan picking secara langsung. Untuk itu kita perlu mengaktifkan

    fitur picking suxpickerdengan cara menekan tombol View Only (tanda panah) sehingga menjadi Pick

    (Gambar 13). Tombol Cross Off dapat ditekan juga agar kursor kita berubah dari bentuk panah kecil

    menjadi bentuk cross hair.Perancangan outside mute dapat dilakukan dengan cara menekan MB3 pada

    tetikus. Hasil pick Anda akan disimpan di dalam ASCII text file bernama shotmute.txt.

    Gambar 13.Window suxpickerdengan modus "Pick".

    Tugas:Tentukan direct wave yang akan Anda buang dengan outside mute!

    Menerapkan Outside Mute

    Setelah kita rancang outside mute untuk membuang direct wave, kita dapat menerapkan mute yang kita

    rancang pada shot gather kita. Bukalah file shotmute.txt dari output suxpickermenggunakan text

    editor, lalu masukkan harganya ke dalam script 004_Apply_Shot_Mute.sh di bawah ini:

    #! /bin/sh

    # Apply an outside mute on shot gathers

    # Input/output data and directoriesDATADIR=/local/lfs1/data/workshop/dataFILE_NUM=9302

  • 7/27/2019 ksf material nanopar

    24/32

    Befriko Murdianto

    23

    INDATA=$DATADIR/fldr${FILE_NUM}_filtered.suOUTDATA=$DATADIR/fldr${FILE_NUM}_muted.su

    # Define xmute and tmute (use values from shotmute.txt here)Xmute=???Tmute=???

    # Apply outside mutesumute $OUTDATA

    # Display unmuted and muted datasuximage

  • 7/27/2019 ksf material nanopar

    25/32

    Befriko Murdianto

    24

    Dekonvolusi Sebelum Stack

    Dekonvolusi adalah tahapan dalam pengolahan data seismik yang bertujuan untuk mengambil komponen

    reflektivitas dari data seismik dengan cara membuang efek wavelet seismik, termasuk ghost dan short-

    period multiples. Gambar berikut ini adalah model umum yang digunakan dalam dekonvolusi.

    *

    INVERSE

    FILTER

    RECORDED

    SEISMIC TRACE

    Gambar 15.Model umum dekonvolusi. Arah sebaliknya adalah model umum konvolusi.

    Secara umum, dekonvolusi terbagi menjadi 2 kategori, yaitu:

    Dekonvolusi deterministikYang dimaksud dengan dekonvolusi deterministik adalah dekonvolusi di mana sebagian dari

    sistem seismik diketahui. Tidak ada elemen acak yang terlibat. Contoh dari dekonvolusi

    deterministik ini adalah dekonvolusi source signature.

    Dekonvolusi statistikYang dimaksud dengan dekonvolusi statistik adalah dekonvolusi di mana tidak ada informasi

    yang tersedia mengenai satu pun komponen dari model konvolusi. Karena itu, pendekatan

    statistik diperlukan untuk menentukan informasi tentang wavelet itu sendiri.

    Dekonvolusi yang akan dilakukan pada workshop ini adalah dekonvolusi statistik, di mana pendekatan

    statistik digunakan untuk menentukan filter dekonvolusi (operator) dengan cara menurunkannya dari

    autokorelasi data seismik itu sendiri.

  • 7/27/2019 ksf material nanopar

    26/32

    Befriko Murdianto

    25

    Untuk melakukan dekonvolusi statistik, algoritma yang digunakan umumnya menggunakan asumsi-

    asumsi berikut:

    1. Wavelet input kita tidak berubah terhadap waktu dan posisi (stasioner).2.

    Wavelet input kita memiliki fasa minimum.

    3. Reflektivitas Bumi berupa acak (random).4. Komponen bising sangat rendah sehingga dapat diabaikan.

    Dekonvolusi statistik memiliki 2 jenis yang paling umum digunakan, yaitu:

    Dekonvolusi prediktif menggunakan informasi dari bagian awal dari trace seismik untukmemprediksi dan melakukan dekonvolusi bagian akhir dari trace seismik. Metode ini dikenal

    juga dengan istilah gapped deconvolution.

    Dekonvolusi spiking adalah kasus khusus dari dekonvolusi prediktif, di mana lebar gap-nyaadalah selebar interval sampel.

    Berikut ini adalah cara kerja dekonvolusi prediktif:

    Gambar 16.Cara kerja dekonvolusi prediktif.

    Dekonvolusi prediktif memprediksi elemen pengulangan dalam trace seismik akibat multiples, ringing,

    dan sebagainya, dan kemudian menghasilkan suatu operator dengan panjang tertentu yang akan

    membuang elemen pengulangan tersebut, sehingga yang tinggal hanyalah elemen acak dari reflektivitas

    Bumi.

    Berikut ini adalah gambar autokorelasi dari sebuah trace seismik beserta komponen-komponen kuncinya

    yang biasanya digunakan dalam dekonvolusi.

  • 7/27/2019 ksf material nanopar

    27/32

    Befriko Murdianto

    26

    Gambar 17.Autokorelasi trace seismik (atas) beserta komponen-komponen utamanya yang digunakan dalam

    dekonvolusi (bawah).

    Script 005_Decon_Before_Stack.sh adalah yang saya gunakan untuk melakukan dekonvolusi prediktif

    (gapped deconvolution) di SU:

    #! /bin/sh

  • 7/27/2019 ksf material nanopar

    28/32

    Befriko Murdianto

    27

    # A script to run prestack gapped decon

    # Input/output data and directoriesDATADIR=/local/lfs1/data/workshop/dataFILE_NUM=9302INDATA=$DATADIR/fldr${FILE_NUM}_muted.suOUTDATA=$DATADIR/fldr${FILE_NUM}_decon.su

    # Gap and operator length parameters, test this!gap=???operl=???pnoise=???

    # Gapped decon: use supefsupef $OUTDATA

    # Display gathers with and without deconsuximage

  • 7/27/2019 ksf material nanopar

    29/32

    Befriko Murdianto

    28

    Gambar 18.Shot gather sebelum (kiri) dan sesudah (kanan) dekonvolusi prediktif.

    Tugas:Analisis perubahan yang terjadi pada shot gather setelah dekonvolusi!

  • 7/27/2019 ksf material nanopar

    30/32

    Befriko Murdianto

    29

    Gambar 19.Autokorelasi sebelum (atas) dan sesudah (bawah) dekonvolusi prediktif.

    Aplikasi Dekonvolusi pada Seluruh Lintasan

    Setelah kita mendapatkan parameter yang optimal dari hasil test kita, maka parameter tersebut dapat kita

    gunakan untuk seluruh lintasan seismik kita. Script 005_Production_DBS.sh di bawah ini adalah yang

    saya gunakan untuk melakukan dekonvolusi di seluruh lintasan seismik.

    #! /bin/sh

    # Production using parameters deducted from tests

    # Input/output data and directoriesDATADIR=/local/lfs1/data/workshop/dataINDATA=$DATADIR/startshot_edited.suOUTDATA=$DATADIR/startshot_decon.su

    # First flow is to apply gain and low-cut filter (LCF) using chosenparameters from 003_Gain_Test.sh and 004_Filter.sh# Define time power and filter freqs.

    Tpow=???f1=???f2=???f3=???f4=???

  • 7/27/2019 ksf material nanopar

    31/32

    Befriko Murdianto

    30

    # Apply gain and LCFsugain $DATADIR/startshot_filtered.su

    # Second flow is to apply outside mute using picked mute time/offset pairsfrom suxpicker# Define xmute and tmute (use values from 004_Apply_Shot_Mute.sh)Xmute=???Tmute=???

    # Apply mutesumute $DATADIR/startshot_muted.su

    # Third flow is to apply decon before stack (DBS) using parameters from005_Decon_Before_Stack.sh# Define gap, operator length and white noise parametersgap=???operl=???

    pnoise=???

    # Apply gapped deconsupef $OUTDATA

    # Remove intermediate outputrm -f $DATADIR/startshot_filtered.su $DATADIR/startshot_muted.su

    exit

    Di bawah ini adalah tampilan shot gathers seperti diGambar 5 setelah aplikasi dekonvolusi di script

    005_Production_DBS.sh. Tampilan ini dibuat dengan script 001_Display_Shots.sh dengan mengganti

    input filenya dengan output file dari script 005_Production_DBS.sh. BandingkanlahGambar 20 denganGambar 5,bagaimanakah menurut Anda?

  • 7/27/2019 ksf material nanopar

    32/32

    Befriko Murdianto

    31

    Gambar 20.Shot gathers setelah aplikasi dekonvolusi untuk seluruh lintasan seismik.

    Tugas:Presentasikan hasil Anda masing-masing dan tunjukkan apakah pengolahan data yang Anda

    lakukan telah meningkatkan kualitas data.