Oracle SUN servers x86 model numbers

currently we have seen some more models number/naming for Oracle SUN x86 servers. what is the different between the previous naming with the new naming ?

example, around 2012, we still see Oracle SUN servers model SUN Fire X4170 and now we see SUN server X3-2.

here some info about the former naming and new naming for Oracle SUN servers. Continue reading

Add new disk to Vetias Volume Manager on Solaris by Command Line.

Add new disk to Vetias Volume Manager on Solaris by Command Line.

Base on experience juga.

If you have a machine that using a veritas volume manager, and you need to increase volume space by online. you can follow this step to do that.

For information. you have volume that controlled by veritas volume manager, and that volume need to increase to get more avaliable space. please collect this data.
Volumegroup name :
diskname that avaliable to use :
volume name :
and block size the new disk :

when you add new disk to Solaris Machine, you have to label first.
after that do this step :
– scand disk by veritas
#vxdisk scandisk

– initialize disk with veritas
#vxdisksetup -if cxtxdx

– give new name for new disk and add to volumegroup
#vxdg -g vgname adddisk newdiskname=cxtxdxsx

– resize to maximum avaliable size
#vxassist -g vgname -p maxgrow volumename alloc=newdiskname xxxblocksizexxx
#vxresize -ttaskid-number -g vgname volumename xxxblocksizexxx alloc=newdiskname

that’s it.
please contact me if you find problem with this article.

regards
Bhieveth27 a.k.a Brother “BJ” John

Koneksi Remote Login XDMCP dari Ubuntu

Koneksi Remote Login XDMCP dari Ubuntu

Base on experience lagi nih.
Aku lagi pengen remote login mesin solaris 10 dari my Ubuntu. nah… setelah searching sana sini, nemu dah caranya buat aktifin remote XDMCP dari Ubuntun.

Begini caranya :
– editlah file berikut : /etc/gdm/gdm.conf
Enable=true (di uncomment juga yah, dan ganti false jadi true)
RemoteGreeter=/usr/lib/gdm/gdmlogin (di uncomment ato bahasa enaknya tanda # dihilangkan).

trus
dari GUI nya Ubuntu ikuti langkah ini :
System -> Administration -> LoginWindow
— @ Remote tab
Change style to “Plain face with browser”
— @ Security tab
Deselect “Deny TCP connections…”

kemudian
# kill -HUP `cat /var/run/gdm.pid`
ini akan merestart X window sessionnya.
so akan nge blank and than muncul lagi login window nya.

nah.. pada saat login window ini, pilihlah remote login XDMCP, disini nanti akan diminta alamat IP mesin yang akan di Remote, tinggal masukin IP mesin yang akan di Remode, dan double klik, masuk dah ke GUI mesin Remote itu.

selamat mencoba, silahkan bertanya jika ada yang diperlukan.

GOOD LUCK.
regards
Bhieveth27 a.k.a Brother “BJ” John

recover failed disk on veritas volume manager

recover failed disk on veritas volume manager

this case was happen on my costumer. when i found this error

vxvm:vxvol: ERROR: Volume <vol_name> has no CLEAN or non-volatile ACTIVE plexes
so, to fix it, I run this step.
on this machine have installed veritas volume manager ver 4.1
and some of internal disk has failed. this failed disk was configured as mirror disk from another disk by veritas volume manager.

to replace this this, i have running this step.

– disconnect the failed disk from raid group.
– replace disk physically
– connect new disk
– on veritas volume manager, initialize the new disk.
– and than by GUI veritas volume manager replicate the failed disk on diskgroup information
– after that, this volume not running as mirror. to run it as mirror do the below step.

check the plex name of your failed disk.
use vxprint command to show information about plex of the diskgroup
and than use vxmend command
#vxmend -g group_name -o force off plex_name
#vxmend -g group_name on plex_name
#vxmend -g group_name fix clean plex_name

and than you can check the mirror disk will be syncronice.

i hope this article will help you.

regards
me!

Persistent Binding

Persistent Binding

Dalam dunia storage ataupun SAN, istilah peristent binding akan sering ditemui.
apa sebetulnya persistent binding ini?

kalau di andai-andaikan atapun di analogikan, persistent binding ini persis seperti sambungan pipa.
jika ada 2 pipa, yang akan di gunakan dalam satu instalasi arus PDAM, maka sambungan pipa sangat membantu engineer nya untuk menentukan bahwa, aliran pipa 1 ini harus mengalir ke pipa 2, dan begitu juga saat tidak ada aliran, mereka tetap terhunbung. dan akan selalu tersambung walau apapun terjadi pada sumber air dan tujuan akhir sambungan.

begitu juga dengan persistent binding, saat kita mengkonfigur persistent binding di HBA (Host Bus Adapter) atau sering juga disebut FC card. maka akan selalu tersambung hubungan antara WWN storage dengan WWN server. jika kita mengenalkan WWN baru pada server tanpa memasukkan WWN tersebut kedalam settingan persistent bindingnya, maka storage nya tidak akan terlihat oleh server. so be carefull to setting persistent binding, cause some of new binding setting need reboot the system.
Persistent binding ini dapat di konfigurasi dalam HBA Managernya, contohnya HBA Emulex dapat di binding dengan menggunakan software manager HBAnywhere, dan Qloqic juga dapat di binding dengan menggunakan SANSurf nya.
Adapun ketentutan untuk binding ini adalah penentuan WWN atau WWPN ataupun DID (Device ID) dari storage yang akan dikenali oleh Server.

demikian sedikit informasi mengenai persistent binding di server&storage

thanks

Solaris Multipathing dengan MPxIO

Solaris Multipathing dengan MPxIO

Sedikit saya ceritakan pengalaman saya dalam konfigurasi multipathing di Solaris 10 yang saya kerjakan di costumer baru-baru ini.

ada beberapa hal yang perlu di perhatikan ataupun dikonfigurasi untuk menjalankan fungsi multipathing di solaris 10. sebagai informasi aja, multipathing ini ada free dari SUN, dan juga sudah include terinstall otomatis di solaris 10, di solaris 9 dan sebelumnya, fitur ini harus di install manual.

file configurasi yang perlu di konfigur adalah:
#/kernel/drv/scsi_vhci.conf
di dalam file ini, hanya dipastikan bahwa multipating itu menggunakan methoda ’round robin’

file yang selanjutnya adalah :
#/kernel/drv/fp.conf

dalam file konfigurasi ini akan ditambahkan port-port HBA yang akan di masukkan dalam multipathing.

sebelum memulai konfigurasi multipathing ini pastikan dulu bahwa hal-hal dibawah ini sudah ready smuanya.

– pastikan HBA nya lebih dari 1 port.
– pastikan koneksi ke disk normal, dan jika lewat SAN, pastikan juga zoning dan sebagainya running well
– pastikan lagi, LUN atau pun disk yang dikenal kedalam 2 atau lebih port HBA itu adalah disk yang sama
– pastikan juga anda sudah siap dengan dokumentasi mengenai multipathing.

setelah yang diatas ready smua, mari kita konfigure multipathingnya.

pertama.
cek dulu penamaan port di dalam solarisnya, port mana yang digunakan untuk koneksi ke disk dan bagaimana status koneksinya.

command :
#luxadm -e port
nah.. akan ditampilkan port-port HBA yang digunakan beserta satusnya, connected atau tidak.

setelah dapat output dari perintah luxadm, copykan terlebih dahulu ke notepad atau ke editor mana aja, sing penting bisa di copy-paste.

kemudian pastikan bahwa status multipathing ’round robin’ di /kernel/drv/scsi_vhci.conf sudah di remark

kemudian buka file /kernel/drv/fp.conf

tambahwa kan hasil otuput yang telah didapat dari hasil luxadm -e port tadi, seperti contoh di bawah ini, dan hasil dibawah ini tidak selalu sama dengen punya ente, jadi jangan asal copy pastekan yah…

mpxio-disable=”yes”;
name=”fp”parent=”/pci@6,2000/SUNW,qlc@2″ port=0 mpxio-disable=”no”;
name=”fp”parent=”/pci@13,2000/pci@2/SUNW,qlc@5″ port=0 mpxio-disable=”no”;

kemudian save dah tuh file.

kemudian aktifkan multipathnya

commandnya :
#stmsboot -D fp -e

dan akan diminta untuk reboot mesin.

good luck, mudah-mudahan multipathnya jalan,
dan JIKA SAKIT BERLANJUT HUBUNGI YANG BERKEPENTINGAN. hehhehehehhehehhe

tambahan untuk remove metadb yang sudah ada nih

tambahan untuk remove metadb yang sudah ada nih

klo memang sudah terlanjur di create metadb nya seperti pada tulisan sebelumnya yang berjudul “Langkah-langkah stripe/concatenate disk di solaris 9”

ini ada beberapa step untuk menghapusnya

– unmount dulu direktori yang dijadikan tempat disk stripe nya
#umount /nama_direktori

– hilangkan juga baris mountingnya dari /etc/vsftab, jika sudah dimasukkan
#vi /etc/vfstab
hilangkan yang berbau /nama-direktori

– hapus direktorinya
#rmdir /nama_direktori

– baru di clear metanya
#metaclear d0

kelar dah

%d bloggers like this: