返回第236章:第一个“因子”的寻找  股海弄潮首页

关灯 护眼     字体:

上一章 目录 下一页

最新网址:m.23uswx.la
    第236章:第一个“因子”的寻找 (第1/3页)

    苦力活:构建A股十年基础数据库

    2010年4月5日,星期一,上午九点三十分。

    车公庙,三十平米的办公室里,四台电脑同时开着。

    陆方坐在最靠里的位置,面前三块屏幕,正在写代码。周寻坐在他对面,手里拿着一本翻旧了的《上市公司信息披露指引》,眉头紧锁。陈默挤在角落里的一张折叠桌旁,面前堆着厚厚一摞打印出来的Excel表格,正一行一行地核对数字。

    窗外,泰然工业区的喧嚣一如既往——货车的轰鸣,餐馆的油烟,五金店切割金属的尖啸。但这些声音,在这间三十平米的房间里,像是被一层无形的玻璃隔开了。

    没有人说话。

    只有键盘敲击声,纸张翻动声,偶尔有人叹一口气。

    这是“默石量化研究实验室”成立后的第五天。

    五天前,他们挂牌时,陈默说目标是“打造一台在长期能稳定赚钱的机器”。周寻说先要“v0.1”。陆方说服务器只能跑一百个策略。

    但所有这些,都建立在一个前提上:

    有数据。

    没有数据,就没有回测。没有回测,就没有策略。没有策略,就没有机器。

    而数据,他们现在一分也没有。

    不是完全没有——市面上有卖的数据库,但价格贵得离谱,起步价就要几十万。陈默问了一圈,最便宜的也要三十万,还是只有最近三年的数据,不包含财务指标,不包含宏观数据,不包含任何清洗过的因子。

    三十万。

    账户里只剩下六十三万现金,每个月还要付房租、发工资、还贷款。

    陈默做了个决定:

    自己做。

    从零开始。

    ---

    陆方的第一个任务:写爬虫。

    目标:从公开的财经网站上,把A股过去十年的日线数据全部爬下来。

    听起来简单,做起来才知道有多恶心。

    那些网站的反爬机制五花八门——有的限制IP访问频率,有的用动态加载,有的在数据里掺假,有的直接封IP。陆方写了三天,被反爬机制封了七次。他不得不写一个代理池,每天从网上找几百个免费代理IP,轮着用。

    “这些网站,”他一边敲键盘一边嘟囔,“不让爬就算了,还在数据里掺假。我昨天爬下来的平安银行,有一天的收盘价居然是88.88。明显是故意埋的坑。”

    陈默站在他身后,看着屏幕上那些代码。

    他不完全懂,但他能看懂陆方脸上的表情——不是烦躁,是专注。

    那种“我一定要搞定你”的专注。

    “能处理吗?”他问。

    陆方点头:

    “能。但得加一个清洗层。把所有明显异常的数据标记出来,回头人工核对。”

    “需要多少人?”

    陆方想了想:

    “至少两个。专门干这个。”

    陈默看了看房间里的人。

    小林在研究周寻给的论文,小吴在整理过去的研究笔记,小周在学Python,王涛在调试那两台服务器。赵姐在算账,老刘在联系便宜的云服务商。

    没有人闲着。

    但也没有人能专门做数据清洗。

    陈默沉默了几秒。

    然后他说:

    “我来。”

    陆方抬起头,看着他。

    “您?”

    “我。”陈默说,“我干过这个。”

    他走到那堆打印出来的Excel表格前,坐下来:

    “1992年,我刚入市的时候,没有电脑,没有软件。所有的K线图,都是我手画的。每一根K线,开盘、收盘、最高、最低,一个一个从报纸上抄下来,然后用尺子画在坐标纸上。”

    他看着陆方:

    “现在有Excel了。比那时候强多了。”

    陆方看了他几秒,然后点了点头。

    没再说别的。

    ---

    周寻的第一个任务:定标准。

    爬虫爬下来的数据,乱七八糟。

    同一天,不同网站的开盘价可能差几分钱。同一只股票,不同年份的股本可能变过好几次,不复权、前复权、后复权,根本对不上。财务数据更乱——有的公司用旧会计准则,有的用新会计准则;有的报表里“净利润”是归属于母公司的,有的是合并报表的;有的“每股收益”是摊薄的,有的是加权的。

    周寻拿着一份自己整理

    (本章未完,请点击下一页继续阅读)
最新网址:m.23uswx.la

『加入书签,方便阅读』

上一章 目录 下一页