下面是我的代码:
import pytesseract
import cv2
from PIL import Image
pytesseract.pytesseract.tesseract_cmd = r"C:\Program Files (x86)\Tesseract-OCR\tesseract.exe"
def main():
original = cv2.imread('D_Testing.png', 0)
# binary thresh it at value 100. It is now a black and white ima
我有以下代码片段:
names[count]=osd.0
for line_2 in osd_tree.stdout:
match_2 = re.search(r"%s*(\bup\b|\bdown\b)" % names[count], line_2)
if match_2:
status.append(match_2.group(1))
print status
我遍历了以下几行:
# id weight type name up/down reweight
-1 40.25 pool default
-
# Initialisation des notifications
self.PID = str(os.getpid())
os.system('rm /tmp/g2u_*_'+self.PID+' 2>/dev/null')
os.system('python '+self.p+'librairy/osd.py '+self.PID+' &')
# on joue un son pour signaler le démarrage
os.system('play '+self.
我有一个小的Ceph集群。这里描述了它的设置方式:
在重新启动部署节点( ntp服务器所在的地方)之后,我得到:
ceph health; ceph osd tree
HEALTH_ERR 370 pgs are stuck inactive for more than 300 seconds; 370 pgs stale; 370 pgs stuck stale; too many PGs per OSD (307 > max 300)
ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY
-1 10.8898
我使用推荐值配置了Ceph (使用文档中的公式)。我有3个OSD,我的配置(我已经放在监视器节点和所有3个OSD上)包括以下内容:
osd pool default size = 2
osd pool default min size = 1
osd pool default pg num = 150
osd pool default pgp num = 150
当我运行ceph status时,我得到:
health HEALTH_WARN
too many PGs per OSD (1042 > max 300)
这是令人困惑的,原因有二。首先,因为推荐的公式不能满
我一直在努力提高我们的ceph恢复速度,我在ceph文档和各种论坛上遇到的每一个选项似乎都没有效果。
我已经尝试了在恢复速度没有变化的情况下设置在线选项的组合。当前设置通过以下方式设置:
for i in $(sudo ceph osd ls)
do
sudo ceph tell osd.$i injectargs --osd-max-backfills=7 \
--osd-recovery-max-active=50 \
--osd-recovery
我正在使用Ceph,通过radosgw上传许多文件。之后,我想删除这些文件。我试着用Python来做这件事,比如:
bucket = conn.get_bucket(BUCKET)
for key in bucket.list():
bucket.delete_key(key)
之后,我使用bucket.list()来列出桶中的文件,这表明桶现在是空的,正如我所希望的那样。
但是,当我在mon上运行ceph df时,它表明OSD仍然具有很高的利用率(例如,%RAW USED 90.91)。如果我继续编写(认为状态数据还没有赶上状态),Ceph基本上就会锁定(100%的利用率)。
到底怎
我按照这文档设置了Ceph集群。我有一个Manager节点、一个Monitor节点和三个OSD节点。问题是,在我设置完集群之后,ceph health返回了所有三个节点的HEALTH_OK。然而,当我回到我的集群时,情况就不太好了。这是健康检查的输出:
HEALTH_WARN Reduced data availability: 96 pgs inactive
PG_AVAILABILITY Reduced data availability: 96 pgs inactive
pg 0.0 is stuck inactive for 35164.889973, current stat
这是我得到的查询:
select * from order_shipping_date osd inner join
(SELECT MAX(osd.id) as id FROM order_shipping_date osd
group by osd.order_id) osdi ON osd.id = osdi.id
我可以这样保持它,但我希望可以将它定义为
以后使用这样的代码会更舒服,这是可行的吗?我找不到任何例子。
我有2个带CEPH的数据中心和12个osd (DC1: 3osd x 2节点,DC2: 3osd x 2节点)和1个复制大小为2的池。
压碎贴图:
ceph osd tree
ID CLASS WEIGHT TYPE NAME STATUS REWEIGHT PRI-AFF
-1 2.00000 root default
-105 1.00000 datacenter 1
-102 1.00000