教你用Python进阶量化交易-专栏
上市公司新闻文本分析与分类预测的基本步骤如下: 从新浪财经、每经网、金融界、中国证券网、证券时报网上,爬取上市公司(个股)的历史新闻文本数据(包括时间、网址、标题、正文) 从Tushare上获取沪深股票日线数据(开、高、低、收、成交量和持仓量)和基本信息(包括股票代码、股票名称、所属行业、所属地区、PE值、总资产、流动资产、固定资产、留存资产等) 对抓取的新闻文本按照,去停用词、加载新词、分词的顺序进行处理 利用前两步中所获取的股票名称和分词后的结果,抽取出每条新闻里所包含的(0支、1支或多支)股票名称,并将所对应的所有股票代码,组合成与该条新闻相关的股票代码列表,并在历史数据表中增加一列相关股票代码数据 从历史新闻数据库中抽取与某支股票相关的所有新闻文本,利用该支股票的日线数据(比如某一天发布的消息,在设定N天后如果价格上涨则认为是利好消息,反之则是利空消息)给每条新闻贴上“利好”和“利空”的标签,并存储到新的数据库中(或导出到CSV文件) 实时抓取新闻数据,判断与该新闻相关的股票有哪些,利用上一步的结果,对与某支股票相关的所有历史新闻文本(已贴标签)进行文本分析(构建新的特征集)
这是一个python股票数据收集和分析系统,我们使用tushare开源接口,定时的是爬取数据保存到数据库中,然后我们拿数据库中的数据用来分析策略。
审计人必备的「审计工具箱」,快递截图、工商截图、询证函处理、地址复核、海关查询、公告下载、地址补全······
爬取东方财富的宏观研究的研报,基于LSTM进行情感分析,分类为正向、负向和中性三类
通过celery定期执行更相关任务,将万得wind,同花顺ifind,东方财富choice、Tushrae、JQDataSDK、pytdx、CMC等数据终端的数据进行整合,清洗,一致化,供其他系统数据分析使用
基于scrapy-redis的分布式新闻爬虫,可同时获取腾讯、网易、搜狐、凤凰网、新浪、东方财富、人民网等各大平台新闻资讯