Registrasi Penduduk Online Part 3

28 10 2008

Kebetulan saya punya pengalaman melakukan proses registrasi penduduk sewaktu di Jepang dulu sekitar tahun 1989-1996-an. Saya pertama masuk Jepang melalui Tokyo. Pertama kali saya mempunyai KTP Jepang dikeluarkan oleh pemerintahan Kotamadya Tokyo. Kemudian setelah setahun di Tokyo saya pindah ke Prefektur (Provinsi) Tokushima. Setelah settle dengan kepindahan, saya melapor ke pemerintah Prefektur Tokushima. Yang dilakukan mereka saat itu hanya mencatat alamat saya yang baru (di Tokushima) di kolom yang disediakan di bagian belakang KTP, kemudian mendaftarkan alamat saya yang baru tersebut di sistem komputernya, tanpa menanyakan detail keterangan dari saya. Saya pindah tempat tinggal beberapa kali selama saya tinggal di Prefektur Tokushima. Setiap berpindah rumah, saya selalu melaporkan diri ke pemerintah prefektur. Saya hanya perlu mengikuti prosedur yang sama setiap kali melapor. Dan prosedur perubahan alamat hanya memerlukan waktu kurang dari 1 menit.

Memikirkan waktu dan tenaga, seperti ini, dimana pengurusan KTP bisa memerlukan waktu sampai sehari dua hari di beberapa tempat di Indonesia, dan keperluan untuk mengurus KTP dari awal di setiap tempat dimana kita akan berdomisili, sungguh hal tersebut sangat tidak efisien. Kita sepatutnya mencontoh hal-hal yang baik yang sudah terbukti berhasil diterapkan seperti halnya prosedur yang diterapkan di Jepang ini.

Advertisements




空も飛べるはず by Spitz

19 10 2008

空も飛べるはず – Sora Mo Toberu Hazu – I Can Fly Even The Sky by Spitz is one of my favorite Japanese songs. This song was very popular in Japan between 1995-1996, the period of my last stay there. I remember singing this song loudly in a karaoke box with some of my best friends: Yoko-chan, Ogura-san, Muya-san, Suzue-san, Okano-san. I am wondering how they are all doing now?

Lyrics:

Osanai binetsu o sagerarenai mama
Kamisama no kage o osorete
Kakushita naifu ga niawanai boku o
Odoketa uta de nagusameta

Iroase nagara hibiware nagara
Kagayaku sube o motomete

Kimi to deatta kiseki ga
Kono mune ni afureteru
Kitto ima wa jiyuu ni
Sora mo toberuhazu

Yume o nurashita namida ga
Unabara e nagaretara
Zutto soba de waratteite hoshii

Kirifuda ni shiteta miesuita uso wa
Mangestu no yoru ni yabuita
Hakanaku yureru kami no nioi de
Fukai nemuri kara samete

Kimi to deatta kiseki ga
Kono mune ni afureteru
Kitto ima wa jiyuu ni
Sora mo toberuhazu

Gomi de kirameku sekai ga
Bokutachi o koban demo
Zutto soba de waratteite hoshii

Japanese Lyrics:

幼い微熱を下げられないまま 神様の影を恐れて
隠したナイフが似合わない僕を おどけた歌でなぐさめた
色褪せながら ひび割れながら 輝くすべを求めて

君と出会った奇跡が この胸にあふれてる
きっと今は自由に空も飛べるはず
夢を濡らした涙が 海原へ流れたら
ずっとそばで笑っていてほしい

切り札にしてた見えすいた嘘は 満月の夜にやぶいた
はかなく揺れる 髪のにおいで 深い眠りから覚めて

君と出会った奇跡が この胸にあふれてる
きっと今は自由に空も飛べるはず
ゴミできらめく世界が 僕たちを拒んでも
ずっとそばで笑っていてほしい

君と出会った奇跡が この胸にあふれてる
きっと今は自由に空も飛べるはず
夢を濡らした涙が 海原へ流れたら
ずっとそばで笑っていてほしい

English Translation:

The childish fever that can’t be lowered
Fearing the shadow of god
The hidden knife that didn’t suit me
Comforted me with a funny song

While the color fades, while the crack breaks
I seek for the shining meaning

The miracle that I met you
Is overflowing inside me
Certainly now I can fly freely
Even to the sky

After the tears, that soaked in dreams,
Flow into the deep sea
I want you to smile by my side, always

That unconvincing lies I told
Was broken on that full moon night
The scent of your swinging hair
Awoke me from a deep sleep

The miracle that I met you
Is overflowing inside me
Certainly now I can fly freely
Even to the sky

Even if this littered glittering world
Rejects us
I want you to smile by my side, always





Artificial Neural Networks

9 10 2008

Neural Networks (Artificial Neural Networks atau Jaringan Saraf Tiruan) merupakan sudah metode softcomputing atau data mining yang banyak digunakan untuk melakukan pengklasifikasian dan prediksi. Artificial Neural Networks (ANN) pertama kali dikembangkan oleh McCulloch dan Pitts (1943), dan sekarang ini telah banyak dikembangkan menjadi bentuk ANN yang bermacam-macam. Perubahan bentuk ini dapat berupa perubahan activation function, topology, learning algorithm dan lain-lain.

Salah satu algoritma yang sering digunakan dalam melakukan learning terhadap ANN adalah Backpropagation algorithm. Algoritma ini dikembangkan oleh Rumelhart dan McClelland (1986). Sebuah neural networks umumnya terdiri dari input, output dan hidden layer. Single layer ANN merupakan bentuk yang paling populer, tetapi seperti gambar di bawah, sebuah ANN juga bisa mempunyai lebih dari single hidden layer.

Neural Networks Diagram

Dalam algoritma Backpropagation, proses learning dilaksanakan dengan, pertama, melakukan proses feed forward dengan mengirimkan signal ‘forward’. Adapun proses yang dilakukan dalam proses feed forward ini untuk sebuah neuron digambarkan dalam gambar berikut ini.

Activation of Single Neuron

Seperti yang digambarkan, kegiatan yang dilakukan dalam proses feed forward adalah menghitung Weighted Sum dan mengirimkan jumlah tersebut ke suatu Activation Function sehingga menghasilkan Output. Adapun rumus yang digunakan untuk menghitung weighted sum adalah:

A_j(X,W) = SUM(i=1 to n) x_i * w_ji

dimana:
j : indeks dari output
i : indeks dari input
x_i : input ke i
w_ji : weight dari input ke i ke output ke j

Untuk Activation Function, ada banyak yang bisa digunakan, tetapi yang paling banyak digunakan adalah Fungsi Sigmoid yang dirumuskan sebagai berikut:

O_j(X,W) = 1 / (1 + exp(A_j(X,W)))

dimana:
O_j(X,W) : output ke j

Dengan sifat dari fungsi sigmoid ini, output dari neuron dapat dilakukan dengan lebih smooth. Selanjutnya apabila semua output sudah didapatkan, yang perlu dilakukan adalah membandingkan antara output yang dikeluarkan dari perhitungan dengan output riilnya (perlu diingat bahwa ANN merupakan salah satu metode supervised classification, dimana output riil akan menjadi bagian dalam proses pemodelan. Dalam hal ini, output yang dihasilkan dari perhitungan akan dicocokan dalam proses learning dengan output riilnya). Adapun rumus yang digunakan untuk menghitung perbedaan tersebut adalah sebagai berikut:

E_j(X,W,d) = (O_j(X,W) – d_j)^2

dimana:
E_j(X,W,d) : error/perbedaan antara hasil output perhitungan dengan output riil
d_j : output riil ke j

Secara umum, perbedaan output perhitungan dan output riil dihitung dengan rumus:

E(X,W,d) = SUM(j=1 to m) (O_j(X,W) – d_j)^2

Setelah mendapatkan perbedaan output tersebut, apabila perbedaan yang ada masih di atas threshold, maka error yang ada di-‘propagate’ backward dengan melakukan adjustment terhadap weight yang ada pada networks. Adapun metode yang bisa digunakan adalah metode gradient descendent dengan rumus berikut ini:

Diff w_ji = – eta dE/dw_ji

dimana:
eta : a constant
dE/dw_ji : the derivative of error E with respect to the weight w_ji

Di sini goal yang ingin dituju, bagaimana caranya agar weight yang didapatkan dapat meminimalisasikan error yang muncul. Untuk keperluan tersebut, sebelum menghitung langsung pengaruh weight terhadap error, kita perlu menghitung pengaruh output penghitungan terhadap error dengan rumus sebagai berikut, yang merupakan penurunan dari derivative dari error terhadap output perhitungan:

dE/dO_j = 2 * (O_j – d_j)

Selanjutnya adalah melihat pengaruh weight terhadap output perhitungan yang dihitung dengan nilai derivative dari output perhitungan terhadap weight sebagai berikut:

dO_j/dw_ji = dO_j/DA_j * dA_j/dw_ji = O_j*(1-O_j)*x_i

Sehingga,

dE/dw_ji = dE/dO_j * dO_j/dw_ji = 2 * (O_j – d_j) * O_j * (1 – O_j) * x_i

Dan akhirnya,

Diff w_ji = – 2 * eta * (O_j – d_j) * O_j * (1 – O_j) * x_i

Apabila di depan layer yang bersangkutan masih terdapat layer yang ingin dihitung atau di-adjust weightnya, maka proses di atas perlu diulang dengan menganggap bahwa input pada layer yang telah diadjust weightnya sebagai output dari layer yang sedang dihitung dengan rumus:

Diff v_ik = – eta * dE/dv_ik = – eta * dE/dx_i * dx_i/dv_ik

Seperti yang dijelaskan di atas rumus ini sebenarnya sama dengan dengan rumus sebelumnya, tetapi di sini weightnya disimbolkan dengan v_ik dan outputnya disimbolkan dengan x_i.

Referensi:
McCulloch, W. and Pitts, W. (1943). A Logical Calculus of the Ideas Immanent in Nervous Activity. Bulleting of Mathematical Biophysics, Vol. 5, pp. 115-133.
Rumelhart, D. and McClelland, J. (1986). Parallel Distributed Processing. MIT Press, Cambridge, Massachusset, USA.