-
时间就开了多久我就打开了
啊打发时间看拉萨打开链接阿拉山口大家卡死了大家快来江东父老ask两地分居阿里山;到家了;啊时代科技啦士大夫金龙卡啊时代科技
- 2022-05-20 19:18:13下载
- 积分:1
-
基于用户的协同过滤推荐算法研究
实际投标中,由于竞争对手的投标策略是随着市场环境及自身条件的变化而变化的,因此就是对同一个包(货物类型以及对应数量完全相同),同一厂家在不同批次中的报价也可能是不同的。还需要注意价格下浮比例(或称下浮系数)以及减分速率指数对报价也会产生一定的影响
- 2022-03-02 05:48:23下载
- 积分:1
-
第一课爬取百度
百度爬虫,爬取贴吧指定页面的内容,然后进行爬取(Baidu crawler, crawl the content of the specified page of the post bar, and then crawl.)
- 2019-02-16 11:58:24下载
- 积分:1
-
tpxt_v8.1
企管美女美图小偷功能简介:
1.采用php小偷技术自动同步更新.
2.支持二级目录,二级域名。程序自带后台
3.搜索引擎蜘蛛访问记录(Business Mito beautiful thief Features:
1. Using php thief technology automatic synchronization update.
2. Support secondary directory, two domain names. The program comes with background
3. Search engine spiders access to records)
- 2020-11-14 15:09:42下载
- 积分:1
-
in0436news
相关链接、新闻搜索、今日要闻、历史新闻查询,取消查看新闻时生成本地文件(Related links, news search, today highlights, news about history, creating a local file to view the news Cancel)
- 2016-03-26 19:26:21下载
- 积分:1
-
351373
百度刷相关搜索工具源码例程程序结合易语言互联网支持库和易语言模块,实现百度的关键字搜索。(Brush Baidu Search tools combined with easy language program source code routines Internet easy language support library module, Baidu s keyword search .)
- 2016-11-05 12:51:36下载
- 积分:1
-
0324
搜索指定网站源码,程序结合易语言扩展界面支持库,调用搜索网站的搜索引擎,设置URL地址,搜索指定网站的内容。(Searches for the specified website source code , the program expanded interface combined with easy language support library , call the search site s search engine , set the URL address , search the contents of the Web site.)
- 2016-07-03 16:20:55下载
- 积分:1
-
57594
简单的搜索源码程序,例程结合易语言应用接口支持库,调用“打开指定网址”命令,根据网址的规则搜索。(Simple search source program , a routine application interface combined with easy language support library , call open the specified URL command , according to the rules of the search site .)
- 2016-12-13 10:00:10下载
- 积分:1
-
基于隐马尔可夫模型的音频自动分类
说明: 基于隐马尔可夫模型的音频自动分类(based on Hidden Markov Models audio automatic classification)
- 2006-02-22 22:29:59下载
- 积分:1
-
python_sina_crawl
新浪微博的爬虫程序。程序运行方式:保存所有代码后,打开Main.py,修改LoginName为你的新浪微博帐号,PassWord为你的密码。运行Main.py,程序会在当前目录下生成CrawledPages文件夹,并保存所有爬取到的文件在这个文件夹中。(Sina microblogging reptiles. Program operation: save all the code, open Main.py, modify LoginName for your Sina Weibo account, PassWord for your password. Run Main.py, the program will generate CrawledPages in the current directory folder and save all files to crawling in this folder.)
- 2021-04-08 16:39:00下载
- 积分:1