![]() |
#1
|
|||
|
|||
![]()
Здравствуйте.
Уж так получилось поставил на Oracle VM Server 2.2.2 и на CentOS Manager 2.2.2 ( почему-то 3 версия менеджера не захотела конектится к старому серверу) также возникла ошибка с OCFS2 при создании пула типа high availability: OVM-1011 OVM Manager communication with <ip address> for operation Pre-check cluster root for Server Pool failed: <Exception: SR '/dev/sdb1' not supported: type 'ocfs2.local' not in ['nfs', 'ocfs2.cluster']> я делаю : umount /dev/cciss/c0d0p3 umount: /dev/cciss/c0d0p3: not mounted создаю: /sbin/mkfs.ocfs2 /dev/cciss/c0d0p3 mkfs.ocfs2 1.4.3 Cluster stack: classic o2cb Overwriting existing ocfs2 partition. mkfs.ocfs2: Unable to access cluster service while initializing the dlm As this is an existing OCFS2 volume, it could be mounted on an another node in the cluster. However, as mkfs.ocfs2 is unable to initialize the dlm, it cannot detect if the volume is in use or not. To skip this check, use --force or -F. хорошо: /sbin/mkfs.ocfs2 -F /dev/cciss/c0d0p3 mkfs.ocfs2 1.4.3 Cluster stack: classic o2cb Overwriting existing ocfs2 partition. WARNING: Cluster check disabled. Proceed (y/N): y Filesystem label= Block size=4096 (bits=12) Cluster size=4096 (bits=12) Volume size=68417875968 (16703583 clusters) (16703583 blocks) 518 cluster groups (tail covers 27231 clusters, rest cover 32256 clusters) Journal size=268435456 Initial number of node slots: 8 Creating bitmaps: done Initializing superblock: done Writing system files: done Writing superblock: done Writing backup superblock: 3 block(s) Formatting Journals: done Formatting slot map: done Writing lost+found: done mkfs.ocfs2 successful /sbin/mounted.ocfs2 -f Device FS Nodes /dev/cciss/c0d0p3 ocfs2 Not mounted при этом визард успешно создаёт пул, а потом выдаёт ошибку: Check prerequisites to create server pool (POOL) failed: (OVM-1011 OVM Manager communication with 192.168.10.136 for operation Pre-check cluster root for Server Pool failed: <Exception: SR '/dev/cciss/c0d0p3' not supported: type 'ocfs2.local' not in ['nfs', 'ocfs2.cluster']> ) понятное дело... команда, тоже посылает: /sbin/mount.ocfs2 /dev/cciss/c0d0p3 mount.ocfs2: Invalid argument passed to OCFS2 library no mountpoint specified чё делать-то.... неделю уже сижу... ?? Вообще в документации поустановке написана глава целая по настройке ntp, может в этом дело? |
#2
|
|||
|
|||
![]()
Перезагрузил сервер, слепил команду :
mount -t ocfs2 /dev/cciss/c0d0p3 /block-device (/block-device создавал директорию, что-то тоже пробовал) теперь: /sbin/mounted.ocfs2 -f Device FS Nodes /dev/cciss/c0d0p3 ocfs2 hp-serv1 хорошо, делаю restore pool, а он адрес потерял: During restore server pool (POOL), cluster setup failed: (OVM-1011 OVM Manager communication with 192.168.10.136 for operation HA Setup for Oracle VM Agent 2.2.0 failed: errcode=00000, errmsg=Unexpected error: <Exception: ha_check_hostname_ip failed:<Exception: check srv('192.168.10.136') hostname/IP failed! => <Exception: Invalid hostname/IP configuration: hostname=hp-serv1;ip=127.0.0.1> ). |
#3
|
|||
|
|||
![]()
Может пока не поздно отказаться от oracle vm?
А то еще и подохнет в самый неподходящий момент да еще и базу с собой зеберет....
__________________
Телеграм чат |
#4
|
|||
|
|||
![]()
Это тест, пока не предпологается эксплуатация...
здесь тип написал что нужно првить, что и сделал (добавил localhost): vi /etc/hosts 192.168.10.136 hp-serv1 loaclhost оно выдало новую: Update server pool (POOL) infomation failed: (OVM-1011 OVM Manager communication with 192.168.10.136 for operation HA Setup for Oracle VM Agent 2.2.0 failed: errcode=00000, errmsg=Unexpected error: <Exception: ha_check_storage_repos failed:<Exception: SR '/dev/cciss/c0d0p3' not supported: type 'ocfs2.local' not in ['nfs', 'ocfs2.cluster']> ) Я перемонтировал OCFS2, после рестарта пула, обнаружил только это : During restore server pool (POOL), cluster setup failed: (OVM-1011 OVM Manager communication with 192.168.10.136 for operation HA Setup for Oracle VM Agent 2.2.0 failed: errcode=00002, errmsg=Exception: No device found: dev_uuid=b967cd3b-37a9-4916-b7be-bc18e90e64b4 ). где-то я уже видел такое: /opt/ovs-agent-2.3/utils/repos.py --list [ R ] 39a8c477-6548-4f1a-9a0e-0e12410a9d03 => ERROR /opt/ovs-agent-2.3/utils/repos.py --new /dev/cciss/c0d0p3 [ NEW ] b5e9d59b-05cf-484c-807f-7de6ca791cb8 => /dev/cciss/c0d0p3 /opt/ovs-agent-2.3/utils/repos.py --root b5e9d59b-05cf-484c-807f-7de6ca791cb8 [ R ] b5e9d59b-05cf-484c-807f-7de6ca791cb8 => /dev/cciss/c0d0p3 /opt/ovs-agent-2.3/utils/repos.py --delete 39a8c477-6548-4f1a-9a0e-0e12410a9d03 [ DEL ] 39a8c477-6548-4f1a-9a0e-0e12410a9d03 => /dev/cciss/c0d0p3 Active! |
#5
|
|||
|
|||
![]()
Теперь хочу добавить .iso :
Resources > ISO > Download from External Source (HTTP and FTP) > Server Pool Name: так и не появился мой пул ... HVM-enabled servers ONLY ! и тут я понимаю, что нужен был сервер с аппаратной виртуализацией, а не High Availability. |
![]() |
Метки |
ocfs2, owracle vm |
Опции темы | |
Опции просмотра | |
|
|