predict.py 32 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180181182183184185186187188189190191192193194195196197198199200201202203204205206207208209210211212213214215216217218219220221222223224225226227228229230231232233234235236237238239240241242243244245246247248249250251252253254255256257258259260261262263264265266267268269270271272273274275276277278279280281282283284285286287288289290291292293294295296297298299300301302303304305306307308309310311312313314315316317318319320321322323324325326327328329330331332333334335336337338339340341342343344345346347348349350351352353354355356357358359360361362363364365366367368369370371372373374375376377378379380381382383384385386
  1. #coding:utf-8
  2. import copy
  3. import json
  4. import math
  5. import os
  6. import sys
  7. import time
  8. import numpy as np
  9. import h5py
  10. import tensorflow as tf
  11. from flask import Flask
  12. sys.path.append(os.path.abspath(os.path.dirname(__file__)))
  13. from models.model import get_model
  14. from post_process import table_post_process, table_post_process_2
  15. from pre_process import my_data_loader, table_pre_process, table_pre_process_2, my_data_loader_2, my_data_loader_predict
  16. # from BiddingKG.dl.interface.Preprocessing import tableToText, segment
  17. # init model
  18. model_id = 1
  19. if model_id == 1:
  20. input_shape = (6, 20, 60)
  21. output_shape = (1,)
  22. else:
  23. input_shape = (None, None, 20, 60)
  24. output_shape = (None, None)
  25. keras_model_path = os.path.abspath(os.path.dirname(__file__)) + "/best_tiny.hdf5"
  26. # keras模型加载预测都使用同一个session、同一个graph,即可多进程推理
  27. session_conf = tf.ConfigProto(
  28. intra_op_parallelism_threads=5,
  29. inter_op_parallelism_threads=5)
  30. sess = tf.Session(graph=tf.Graph(), config=session_conf)
  31. # graph = tf.get_default_graph()
  32. # tf_model_path = os.path.abspath(os.path.dirname(__file__)) + '/best_pb/1'
  33. # sess = tf.Session(graph=tf.Graph())
  34. # inputs = [None] * 6
  35. # outputs = None
  36. # with sess.as_default():
  37. # with sess.graph.as_default():
  38. # meta_graph_def = tf.saved_model.loader.load(sess, [tf.saved_model.tag_constants.SERVING], tf_model_path)
  39. # sess.run(tf.global_variables_initializer())
  40. # signature_key = 'model'
  41. # signature_def = meta_graph_def.signature_def
  42. # inputs = [sess.graph.get_tensor_by_name(signature_def[signature_key].inputs["input_1"].name),
  43. # sess.graph.get_tensor_by_name(signature_def[signature_key].inputs["input_2"].name),
  44. # sess.graph.get_tensor_by_name(signature_def[signature_key].inputs["input_3"].name),
  45. # sess.graph.get_tensor_by_name(signature_def[signature_key].inputs["input_4"].name),
  46. # sess.graph.get_tensor_by_name(signature_def[signature_key].inputs["input_5"].name),
  47. # sess.graph.get_tensor_by_name(signature_def[signature_key].inputs["input_6"].name),]
  48. # outputs = sess.graph.get_tensor_by_name(signature_def[signature_key].outputs["output"].name)
  49. def predict(table_text_list, model_id=1):
  50. start_time = time.time()
  51. if globals().get("model") is None:
  52. print("="*15, "init table_head model", "="*15)
  53. with sess.as_default():
  54. with sess.graph.as_default():
  55. model = get_model(input_shape, output_shape, model_id=model_id)
  56. # load weights
  57. model.load_weights(keras_model_path)
  58. globals()["model"] = model
  59. else:
  60. model = globals().get("model")
  61. table_text_list_copy = copy.deepcopy(table_text_list)
  62. # 表格单元格数*2 即为单次预测batch_size
  63. if model_id == 1:
  64. data_list = table_pre_process(table_text_list_copy, [], 0, is_train=False)
  65. else:
  66. data_list = table_pre_process_2(table_text_list_copy, [], 0, is_train=False, padding=False)
  67. # 数据预处理
  68. batch_size = len(data_list)
  69. if model_id == 1:
  70. predict_x = my_data_loader_predict(data_list, [], batch_size)
  71. else:
  72. predict_x = my_data_loader_2(data_list, [], 1, is_train=False)
  73. # 预测
  74. # start_time = time.time()
  75. with sess.as_default():
  76. with sess.graph.as_default():
  77. # predict_result = model.predict_generator(predict_x, steps=1)
  78. # 设置batch size为1最快,默认为32很慢
  79. predict_result = model.predict([predict_x[0], predict_x[1], predict_x[2],
  80. predict_x[3], predict_x[4], predict_x[5]],
  81. batch_size=256)
  82. # print("table head predict time", time.time()-start_time, predict_x.shape)
  83. # 数据后处理
  84. if model_id == 1:
  85. table_label_list = table_post_process(table_text_list_copy, predict_result)
  86. else:
  87. table_label_list = table_post_process_2(table_text_list_copy, predict_result)
  88. # 打印保存结构
  89. # save_print_result(table_text_list, table_label_list)
  90. # print("table_head predict cost", str(time.time()-start_time))
  91. return table_label_list
  92. # def predict_pb(table_text_list, model_id=1):
  93. # start_time = time.time()
  94. # table_text_list_copy = copy.deepcopy(table_text_list)
  95. #
  96. # # 表格单元格数*2 即为单次预测batch_size
  97. # if model_id == 1:
  98. # data_list = table_pre_process(table_text_list_copy, [], 0, is_train=False)
  99. # else:
  100. # data_list = table_pre_process_2(table_text_list_copy, [], 0, is_train=False, padding=False)
  101. # batch_size = len(data_list)
  102. # # print("batch_size", batch_size)
  103. # # print("data_list", data_list)
  104. #
  105. # # 数据预处理
  106. # if model_id == 1:
  107. # predict_x = my_data_loader(data_list, [], batch_size, is_train=False)
  108. # else:
  109. # predict_x = my_data_loader_2(data_list, [], 1, is_train=False)
  110. # # predict_x_list = list(predict_x)
  111. # # print("len(predict_x_list)", len(predict_x_list))
  112. # # keys = ["input_1", "input_2", "input_3", "input_4", "input_5", "input_6"]
  113. # # input_list = []
  114. # # for key in keys:
  115. # # batch_input = tf.concat([tf.expand_dims(x.get(key), 0) for x in predict_x_list], 0)
  116. # # input_list.append(batch_input)
  117. # print(time.time()-start_time)
  118. #
  119. # # 预测
  120. # predict_result = None
  121. # for x in predict_x:
  122. # with sess.as_default():
  123. # predict_result = sess.run(outputs, feed_dict={inputs[0]: x.get("input_1"),
  124. # inputs[1]: x.get("input_2"),
  125. # inputs[2]: x.get("input_3"),
  126. # inputs[3]: x.get("input_4"),
  127. # inputs[4]: x.get("input_5"),
  128. # inputs[5]: x.get("input_6"),
  129. # })
  130. # print("predict_result", predict_result)
  131. # print(time.time()-start_time)
  132. #
  133. # # predict_result = model.predict_generator(predict_x, steps=1)
  134. # # print("predict_result", predict_result.shape)
  135. #
  136. # # 数据后处理
  137. # if model_id == 1:
  138. # table_label_list = table_post_process(table_text_list_copy, predict_result, is_list=True)
  139. # else:
  140. # table_label_list = table_post_process_2(table_text_list_copy, predict_result)
  141. #
  142. # # 打印保存结构
  143. # # save_print_result(table_text_list, table_label_list)
  144. # return table_label_list
  145. def save_print_result(table_text_list, table_label_list):
  146. print("table_head predict")
  147. file_path = "C:\\Users\\Administrator\\Desktop\\table_head_test.txt"
  148. write_list = []
  149. for k in range(len(table_label_list)):
  150. print(k, table_text_list[k])
  151. print(k, table_label_list[k])
  152. write_list.append(str(k) + " " + str(table_text_list[k]))
  153. write_list.append("\n")
  154. write_list.append(str(k) + " " + str(table_label_list[k]))
  155. write_list.append("\n")
  156. write_list.append("\n")
  157. with open(file_path, "a+") as f:
  158. f.writelines(write_list)
  159. # def predict_html(_path):
  160. # def get_trs(tbody):
  161. # #获取所有的tr
  162. # trs = []
  163. # objs = tbody.find_all(recursive=False)
  164. # for obj in objs:
  165. # if obj.name=="tr":
  166. # trs.append(obj)
  167. # if obj.name=="tbody":
  168. # for tr in obj.find_all("tr",recursive=False):
  169. # trs.append(tr)
  170. # return trs
  171. #
  172. # def get_table(tbody):
  173. # trs = get_trs(tbody)
  174. # inner_table = []
  175. # for tr in trs:
  176. # tr_line = []
  177. # tds = tr.findChildren(['td', 'th'], recursive=False)
  178. # if len(tds) == 0:
  179. # tr_line.append(re.sub('\xa0', '', segment(tr,final=False))) # 2021/12/21 修复部分表格没有td 造成数据丢失
  180. # for td in tds:
  181. # tr_line.append(re.sub('\xa0', '', segment(td,final=False)))
  182. # inner_table.append(tr_line)
  183. # return inner_table
  184. #
  185. # def fix_table(inner_table, fix_value=""):
  186. # maxWidth = 0
  187. # for item in inner_table:
  188. # if len(item)>maxWidth:
  189. # maxWidth = len(item)
  190. # for i in range(len(inner_table)):
  191. # if len(inner_table[i])<maxWidth:
  192. # for j in range(maxWidth-len(inner_table[i])):
  193. # inner_table[i].append(fix_value)
  194. # return inner_table
  195. #
  196. # # text = codecs.open("C:\\Users\\\Administrator\\Desktop\\2.html","r",encoding="utf8").read()
  197. # # content = str(BeautifulSoup(text).find("div",id="pcontent"))
  198. #
  199. # content = codecs.open(_path, "r",encoding="utf8").read()
  200. # soup = BeautifulSoup(content)
  201. # # print(soup)
  202. # table_list = []
  203. # tbodies = soup.find_all('tbody')
  204. # for tbody_index in range(1,len(tbodies)+1):
  205. # tbody = tbodies[len(tbodies)-tbody_index]
  206. # table_list.append(tbody)
  207. #
  208. # if not table_list:
  209. # tbodies = soup.find_all('table')
  210. # for tbody_index in range(1,len(tbodies)+1):
  211. # tbody = tbodies[len(tbodies)-tbody_index]
  212. # table_list.append(tbody)
  213. #
  214. # table_fix_list = []
  215. # for tbody in table_list:
  216. # inner_table = get_table(tbody)
  217. # inner_table = fix_table(inner_table)
  218. # table_fix_list.append(inner_table)
  219. #
  220. # for table in table_fix_list:
  221. # print("="*30)
  222. # print(table)
  223. # print(predict(table))
  224. def save_as_pb_old(export_path, export_version):
  225. sess1 = tf.Session(graph=tf.Graph())
  226. # print(model.input)
  227. # print(model.output)
  228. with sess1.as_default():
  229. with sess1.graph.as_default():
  230. model = get_model(input_shape, output_shape, model_id=model_id)
  231. # load weights
  232. model_path = os.path.dirname(__file__) + "/best.hdf5"
  233. model.load_weights(model_path)
  234. signature = tf.saved_model.signature_def_utils.predict_signature_def(
  235. inputs={'input_1': model.input[0], 'input_2': model.input[1], 'input_3': model.input[2],
  236. 'input_4': model.input[3], 'input_5': model.input[4], 'input_6': model.input[5],},
  237. outputs={'output': model.output})
  238. export_path = os.path.join(
  239. tf.compat.as_bytes(export_path),
  240. tf.compat.as_bytes(str(export_version)))
  241. builder = tf.saved_model.builder.SavedModelBuilder(export_path)
  242. legacy_init_op = tf.group(tf.tables_initializer(), name='legacy_init_op')
  243. builder.add_meta_graph_and_variables(
  244. sess=sess1,
  245. tags=[tf.saved_model.tag_constants.SERVING],
  246. signature_def_map={
  247. 'model': signature,
  248. },
  249. legacy_init_op=legacy_init_op)
  250. builder.save()
  251. def save_as_pb():
  252. from keras import models
  253. from models.self_attention import SeqSelfAttention
  254. graph = tf.Graph()
  255. with graph.as_default():
  256. model1 = models.load_model(keras_model_path, custom_objects={"SeqSelfAttention": SeqSelfAttention()})
  257. sess1 = tf.Session()
  258. sess1.run(tf.global_variables_initializer())
  259. h5_to_graph(sess1, graph, keras_model_path)
  260. tf.saved_model.simple_save(sess1,
  261. "best_pb",
  262. inputs={'input_1': model1.input[0], 'input_2': model1.input[1], 'input_3': model1.input[2],
  263. 'input_4': model1.input[3], 'input_5': model1.input[4], 'input_6': model1.input[5],},
  264. outputs={'output': model1.output})
  265. def h5_to_graph(sess,graph,h5file):
  266. f = h5py.File(h5file,'r') #打开h5文件
  267. def getValue(v):
  268. _value = f["model_weights"]
  269. list_names = str(v.name).split("/")
  270. for _index in range(len(list_names)):
  271. print(v.name)
  272. if _index==1:
  273. _value = _value[list_names[0]]
  274. _value = _value[list_names[_index]]
  275. return _value.value
  276. def _load_attributes_from_hdf5_group(group, name):
  277. """Loads attributes of the specified name from the HDF5 group.
  278. This method deals with an inherent problem
  279. of HDF5 file which is not able to store
  280. data larger than HDF5_OBJECT_HEADER_LIMIT bytes.
  281. # Arguments
  282. group: A pointer to a HDF5 group.
  283. name: A name of the attributes to load.
  284. # Returns
  285. data: Attributes data.
  286. """
  287. if name in group.attrs:
  288. data = [n.decode('utf8') for n in group.attrs[name]]
  289. else:
  290. data = []
  291. chunk_id = 0
  292. while ('%s%d' % (name, chunk_id)) in group.attrs:
  293. data.extend([n.decode('utf8')
  294. for n in group.attrs['%s%d' % (name, chunk_id)]])
  295. chunk_id += 1
  296. return data
  297. def readGroup(gr,parent_name,data):
  298. for subkey in gr:
  299. print(subkey)
  300. if parent_name!=subkey:
  301. if parent_name=="":
  302. _name = subkey
  303. else:
  304. _name = parent_name+"/"+subkey
  305. else:
  306. _name = parent_name
  307. if str(type(gr[subkey]))=="<class 'h5py._hl.group.Group'>":
  308. readGroup(gr[subkey],_name,data)
  309. else:
  310. data.append([_name,gr[subkey].value])
  311. print(_name,gr[subkey].shape)
  312. layer_names = _load_attributes_from_hdf5_group(f["model_weights"], 'layer_names')
  313. list_name_value = []
  314. readGroup(f["model_weights"], "", list_name_value)
  315. '''
  316. for k, name in enumerate(layer_names):
  317. g = f["model_weights"][name]
  318. weight_names = _load_attributes_from_hdf5_group(g, 'weight_names')
  319. #weight_values = [np.asarray(g[weight_name]) for weight_name in weight_names]
  320. for weight_name in weight_names:
  321. list_name_value.append([weight_name,np.asarray(g[weight_name])])
  322. '''
  323. for name_value in list_name_value:
  324. name = name_value[0]
  325. '''
  326. if re.search("dense",name) is not None:
  327. name = name[:7]+"_1"+name[7:]
  328. '''
  329. value = name_value[1]
  330. print(name,graph.get_tensor_by_name(name),np.shape(value))
  331. sess.run(tf.assign(graph.get_tensor_by_name(name),value))
  332. # 接口配置
  333. app = Flask(__name__)
  334. @app.route('/table_head', methods=['POST'])
  335. def test_gunicorn():
  336. _str = [['4、发售招标文件时间:', '2017-02-03至2017-02-10', '2017-02-03至2017-02-10', '2017-02-03至2017-02-10'], ['5、发售招标文件地点:', '福州市鼓楼区工业路523号福州大学(北区机械厂)福大怡山文化创意园3号楼101二层(具体购买要求详见中国政府采购网)', '福州市鼓楼区工业路523号福州大学(北区机械厂)福大怡山文化创意园3号楼101二层(具体购买要求详见中国政府采购网)', '福州市鼓楼区工业路523号福州大学(北区机械厂)福大怡山文化创意园3号楼101二层(具体购买要求详见中国政府采购网)'], ['6、联系人:', '郑小姐', '郑小姐', '郑小姐'], ['7、联系电话:', '0591-63037983', '传真:', '0591-63037992'], ['公司网址:', 'http://www.fjlqzb.com', 'E-mail:', 'fjlqzb888@126.com'], ['8、投标人资格:', '1、凡有能力提供本招标文件所述服务的,具有法人资格的境内服务商均可能成为合格的投标人;且具有本项目服务经营范围的。提供投标人法人营业执照副本复印件、税务登记证有效复印件(或三证合一的营业执照复印件);, ,2、根据闽检发〔2014〕7号规定,投标人须提供其住所地或本项目业务发生地检察机关出具的近三年行贿犯罪档案查询结果告知函(原件附在技术商务投标文件正本中,副本可附复印件,该函在开标当日应保持有效;若开具该函所在地检察机关有特殊要求或规定可不出具原件的,应随付加盖投标人公章的相关有效证明材料,如官方网站公告等);3、投标人需书面提供参加政府采购活动前未被列入失信被执行人、重大税收违法案件当事人名单、政府采购严重违法失信行为记录名单的书面声明。信用记录以“信用中国”网站、中国政府采购网的查询结果为准;须提供信息记录打印件或网络截图,且均须注明下载网址;4、投标人须提供参加政府采购活动前3年内在经营活动中没有《政府采购法实施条例》第十九条所规定的重大违法记录的书面声明;5、投标人应具备《中华人民共和国政府采购法》第二十二条规定的条件,并提供以下证明材料:5.1)投标人的财务状况报告,依法缴纳税收和社会保障资金的相关材料;5.2)投标人具备履行合同所必需的设备和专业技术能力的证明材料;6、投标人须具备由上级行政主管部门颁发的安全评价乙级资质证书。7、投标人须具备国家注册安全评价师且在投标人单位注册的项目负责人1名,并提供相关证明材料。8、具备法律、行政法规规定的其他条件的证明材料。9、本项目不接受联合体投标。其他具体要求和释义(投标人应提供的资格证明文件)详见投标人须知说明中“3.合格的投标人”及第五章-投标文件格式。', '1、凡有能力提供本招标文件所述服务的,具有法人资格的境内服务商均可能成为合格的投标人;且具有本项目服务经营范围的。提供投标人法人营业执照副本复印件、税务登记证有效复印件(或三证合一的营业执照复印件);, ,2、根据闽检发〔2014〕7号规定,投标人须提供其住所地或本项目业务发生地检察机关出具的近三年行贿犯罪档案查询结果告知函(原件附在技术商务投标文件正本中,副本可附复印件,该函在开标当日应保持有效;若开具该函所在地检察机关有特殊要求或规定可不出具原件的,应随付加盖投标人公章的相关有效证明材料,如官方网站公告等);3、投标人需书面提供参加政府采购活动前未被列入失信被执行人、重大税收违法案件当事人名单、政府采购严重违法失信行为记录名单的书面声明。信用记录以“信用中国”网站、中国政府采购网的查询结果为准;须提供信息记录打印件或网络截图,且均须注明下载网址;4、投标人须提供参加政府采购活动前3年内在经营活动中没有《政府采购法实施条例》第十九条所规定的重大违法记录的书面声明;5、投标人应具备《中华人民共和国政府采购法》第二十二条规定的条件,并提供以下证明材料:5.1)投标人的财务状况报告,依法缴纳税收和社会保障资金的相关材料;5.2)投标人具备履行合同所必需的设备和专业技术能力的证明材料;6、投标人须具备由上级行政主管部门颁发的安全评价乙级资质证书。7、投标人须具备国家注册安全评价师且在投标人单位注册的项目负责人1名,并提供相关证明材料。8、具备法律、行政法规规定的其他条件的证明材料。9、本项目不接受联合体投标。其他具体要求和释义(投标人应提供的资格证明文件)详见投标人须知说明中“3.合格的投标人”及第五章-投标文件格式。', '1、凡有能力提供本招标文件所述服务的,具有法人资格的境内服务商均可能成为合格的投标人;且具有本项目服务经营范围的。提供投标人法人营业执照副本复印件、税务登记证有效复印件(或三证合一的营业执照复印件);, ,2、根据闽检发〔2014〕7号规定,投标人须提供其住所地或本项目业务发生地检察机关出具的近三年行贿犯罪档案查询结果告知函(原件附在技术商务投标文件正本中,副本可附复印件,该函在开标当日应保持有效;若开具该函所在地检察机关有特殊要求或规定可不出具原件的,应随付加盖投标人公章的相关有效证明材料,如官方网站公告等);3、投标人需书面提供参加政府采购活动前未被列入失信被执行人、重大税收违法案件当事人名单、政府采购严重违法失信行为记录名单的书面声明。信用记录以“信用中国”网站、中国政府采购网的查询结果为准;须提供信息记录打印件或网络截图,且均须注明下载网址;4、投标人须提供参加政府采购活动前3年内在经营活动中没有《政府采购法实施条例》第十九条所规定的重大违法记录的书面声明;5、投标人应具备《中华人民共和国政府采购法》第二十二条规定的条件,并提供以下证明材料:5.1)投标人的财务状况报告,依法缴纳税收和社会保障资金的相关材料;5.2)投标人具备履行合同所必需的设备和专业技术能力的证明材料;6、投标人须具备由上级行政主管部门颁发的安全评价乙级资质证书。7、投标人须具备国家注册安全评价师且在投标人单位注册的项目负责人1名,并提供相关证明材料。8、具备法律、行政法规规定的其他条件的证明材料。9、本项目不接受联合体投标。其他具体要求和释义(投标人应提供的资格证明文件)详见投标人须知说明中“3.合格的投标人”及第五章-投标文件格式。'], ['9、投标截标时间:', '2017-02-28, ,09:30:00(北京时间)', '2017-02-28, ,09:30:00(北京时间)', '2017-02-28, ,09:30:00(北京时间)'], ['10、开标时间:', '2017-02-28, ,09:30:00(北京时间)', '2017-02-28, ,09:30:00(北京时间)', '2017-02-28, ,09:30:00(北京时间)'], ['11、开标地点:', '福建立勤招标代理有限公司报告厅(福州市鼓楼区工业路523号福大怡山文化创意园北区3号楼101一层)', '', ''], ['12、标书售价及要求:招标文件(纸质版或电子版)售价为50元人民币;如需邮购,请另加50元,,人民币;招标文件售后不退。', '12、标书售价及要求:招标文件(纸质版或电子版)售价为50元人民币;如需邮购,请另加50元,,人民币;招标文件售后不退。', '12、标书售价及要求:招标文件(纸质版或电子版)售价为50元人民币;如需邮购,请另加50元,,人民币;招标文件售后不退。', '12、标书售价及要求:招标文件(纸质版或电子版)售价为50元人民币;如需邮购,请另加50元,,人民币;招标文件售后不退。'], ['13、开户银行:', '中国工商银行福州市鼓楼支行', '中国工商银行福州市鼓楼支行', '中国工商银行福州市鼓楼支行'], ['开户名称:', '福建立勤招标代理有限公司', '', ''], ['银行帐号:', '1402023209600058290', '', ''], ['福建立勤招标代理有限公司(代理机构)', '福建立勤招标代理有限公司(代理机构)', '福建立勤招标代理有限公司(代理机构)', '福建立勤招标代理有限公司(代理机构)'], ['2017-2-3', '2017-2-3', '2017-2-3', '2017-2-3']]
  337. data_list = _str
  338. print("子进程", os.getpid(), predict(data_list, model_id=model_id))
  339. return json.dumps({1: "Success"})
  340. if __name__ == '__main__':
  341. _str = [['4、发售招标文件时间:', '2017-02-03至2017-02-10', '2017-02-03至2017-02-10', '2017-02-03至2017-02-10'], ['5、发售招标文件地点:', '福州市鼓楼区工业路523号福州大学(北区机械厂)福大怡山文化创意园3号楼101二层(具体购买要求详见中国政府采购网)', '福州市鼓楼区工业路523号福州大学(北区机械厂)福大怡山文化创意园3号楼101二层(具体购买要求详见中国政府采购网)', '福州市鼓楼区工业路523号福州大学(北区机械厂)福大怡山文化创意园3号楼101二层(具体购买要求详见中国政府采购网)'], ['6、联系人:', '郑小姐', '郑小姐', '郑小姐'], ['7、联系电话:', '0591-63037983', '传真:', '0591-63037992'], ['公司网址:', 'http://www.fjlqzb.com', 'E-mail:', 'fjlqzb888@126.com'], ['8、投标人资格:', '1、凡有能力提供本招标文件所述服务的,具有法人资格的境内服务商均可能成为合格的投标人;且具有本项目服务经营范围的。提供投标人法人营业执照副本复印件、税务登记证有效复印件(或三证合一的营业执照复印件);, ,2、根据闽检发〔2014〕7号规定,投标人须提供其住所地或本项目业务发生地检察机关出具的近三年行贿犯罪档案查询结果告知函(原件附在技术商务投标文件正本中,副本可附复印件,该函在开标当日应保持有效;若开具该函所在地检察机关有特殊要求或规定可不出具原件的,应随付加盖投标人公章的相关有效证明材料,如官方网站公告等);3、投标人需书面提供参加政府采购活动前未被列入失信被执行人、重大税收违法案件当事人名单、政府采购严重违法失信行为记录名单的书面声明。信用记录以“信用中国”网站、中国政府采购网的查询结果为准;须提供信息记录打印件或网络截图,且均须注明下载网址;4、投标人须提供参加政府采购活动前3年内在经营活动中没有《政府采购法实施条例》第十九条所规定的重大违法记录的书面声明;5、投标人应具备《中华人民共和国政府采购法》第二十二条规定的条件,并提供以下证明材料:5.1)投标人的财务状况报告,依法缴纳税收和社会保障资金的相关材料;5.2)投标人具备履行合同所必需的设备和专业技术能力的证明材料;6、投标人须具备由上级行政主管部门颁发的安全评价乙级资质证书。7、投标人须具备国家注册安全评价师且在投标人单位注册的项目负责人1名,并提供相关证明材料。8、具备法律、行政法规规定的其他条件的证明材料。9、本项目不接受联合体投标。其他具体要求和释义(投标人应提供的资格证明文件)详见投标人须知说明中“3.合格的投标人”及第五章-投标文件格式。', '1、凡有能力提供本招标文件所述服务的,具有法人资格的境内服务商均可能成为合格的投标人;且具有本项目服务经营范围的。提供投标人法人营业执照副本复印件、税务登记证有效复印件(或三证合一的营业执照复印件);, ,2、根据闽检发〔2014〕7号规定,投标人须提供其住所地或本项目业务发生地检察机关出具的近三年行贿犯罪档案查询结果告知函(原件附在技术商务投标文件正本中,副本可附复印件,该函在开标当日应保持有效;若开具该函所在地检察机关有特殊要求或规定可不出具原件的,应随付加盖投标人公章的相关有效证明材料,如官方网站公告等);3、投标人需书面提供参加政府采购活动前未被列入失信被执行人、重大税收违法案件当事人名单、政府采购严重违法失信行为记录名单的书面声明。信用记录以“信用中国”网站、中国政府采购网的查询结果为准;须提供信息记录打印件或网络截图,且均须注明下载网址;4、投标人须提供参加政府采购活动前3年内在经营活动中没有《政府采购法实施条例》第十九条所规定的重大违法记录的书面声明;5、投标人应具备《中华人民共和国政府采购法》第二十二条规定的条件,并提供以下证明材料:5.1)投标人的财务状况报告,依法缴纳税收和社会保障资金的相关材料;5.2)投标人具备履行合同所必需的设备和专业技术能力的证明材料;6、投标人须具备由上级行政主管部门颁发的安全评价乙级资质证书。7、投标人须具备国家注册安全评价师且在投标人单位注册的项目负责人1名,并提供相关证明材料。8、具备法律、行政法规规定的其他条件的证明材料。9、本项目不接受联合体投标。其他具体要求和释义(投标人应提供的资格证明文件)详见投标人须知说明中“3.合格的投标人”及第五章-投标文件格式。', '1、凡有能力提供本招标文件所述服务的,具有法人资格的境内服务商均可能成为合格的投标人;且具有本项目服务经营范围的。提供投标人法人营业执照副本复印件、税务登记证有效复印件(或三证合一的营业执照复印件);, ,2、根据闽检发〔2014〕7号规定,投标人须提供其住所地或本项目业务发生地检察机关出具的近三年行贿犯罪档案查询结果告知函(原件附在技术商务投标文件正本中,副本可附复印件,该函在开标当日应保持有效;若开具该函所在地检察机关有特殊要求或规定可不出具原件的,应随付加盖投标人公章的相关有效证明材料,如官方网站公告等);3、投标人需书面提供参加政府采购活动前未被列入失信被执行人、重大税收违法案件当事人名单、政府采购严重违法失信行为记录名单的书面声明。信用记录以“信用中国”网站、中国政府采购网的查询结果为准;须提供信息记录打印件或网络截图,且均须注明下载网址;4、投标人须提供参加政府采购活动前3年内在经营活动中没有《政府采购法实施条例》第十九条所规定的重大违法记录的书面声明;5、投标人应具备《中华人民共和国政府采购法》第二十二条规定的条件,并提供以下证明材料:5.1)投标人的财务状况报告,依法缴纳税收和社会保障资金的相关材料;5.2)投标人具备履行合同所必需的设备和专业技术能力的证明材料;6、投标人须具备由上级行政主管部门颁发的安全评价乙级资质证书。7、投标人须具备国家注册安全评价师且在投标人单位注册的项目负责人1名,并提供相关证明材料。8、具备法律、行政法规规定的其他条件的证明材料。9、本项目不接受联合体投标。其他具体要求和释义(投标人应提供的资格证明文件)详见投标人须知说明中“3.合格的投标人”及第五章-投标文件格式。'], ['9、投标截标时间:', '2017-02-28, ,09:30:00(北京时间)', '2017-02-28, ,09:30:00(北京时间)', '2017-02-28, ,09:30:00(北京时间)'], ['10、开标时间:', '2017-02-28, ,09:30:00(北京时间)', '2017-02-28, ,09:30:00(北京时间)', '2017-02-28, ,09:30:00(北京时间)'], ['11、开标地点:', '福建立勤招标代理有限公司报告厅(福州市鼓楼区工业路523号福大怡山文化创意园北区3号楼101一层)', '', ''], ['12、标书售价及要求:招标文件(纸质版或电子版)售价为50元人民币;如需邮购,请另加50元,,人民币;招标文件售后不退。', '12、标书售价及要求:招标文件(纸质版或电子版)售价为50元人民币;如需邮购,请另加50元,,人民币;招标文件售后不退。', '12、标书售价及要求:招标文件(纸质版或电子版)售价为50元人民币;如需邮购,请另加50元,,人民币;招标文件售后不退。', '12、标书售价及要求:招标文件(纸质版或电子版)售价为50元人民币;如需邮购,请另加50元,,人民币;招标文件售后不退。'], ['13、开户银行:', '中国工商银行福州市鼓楼支行', '中国工商银行福州市鼓楼支行', '中国工商银行福州市鼓楼支行'], ['开户名称:', '福建立勤招标代理有限公司', '', ''], ['银行帐号:', '1402023209600058290', '', ''], ['福建立勤招标代理有限公司(代理机构)', '福建立勤招标代理有限公司(代理机构)', '福建立勤招标代理有限公司(代理机构)', '福建立勤招标代理有限公司(代理机构)'], ['2017-2-3', '2017-2-3', '2017-2-3', '2017-2-3']]
  342. data_list = _str
  343. print(predict(data_list, model_id=model_id))
  344. # print((predict_pb(data_list, model_id=model_id)))
  345. # save_as_pb("best_pb", 1)
  346. # save_as_pb()
  347. # path = "D:\\Project\\format_conversion_maxcompute\\result.html"
  348. # path = "C:\\Users\\Administrator\\Desktop\\2.html"
  349. # predict_html(path)