Writer Write出流以下内容:数据 CSV流进,战略,指标和observers Which对象实际上进入CSV流可以被控制与csv的每个对象的属性(默认为Truedata feeds和observers/假用于indicators) 的属性of Data Feeds Strategies的总结(线和参数) 指标/观察员:(线和参数) 分析仪:(参数和分析结果) 只有一个写入定义称为WriterFile,它可以加入制度: 通过设置writer脑的参数True A标准WriterFile会instantiated By调用Cerebro.addwriter(writerclass, **k

Filters This功能相对较晚除了backtrader而且必须是安装在现有的内部。这使得它是不灵活和100%功能全的希望,但它仍然可以达到目的在许多cases. Although落实试图允许即插即用过滤器链接,此预先存在的内部,因此难以确保可能永远是实现。因此,一些过滤器可被链接和其他一些可以通过not. Purpose Transform提供的值的data feed以递送不同data feed 的实施开始,以简化这两个实施这可以通过cerebroAPI直接使用明显的过滤器。它们是: Resampling(cerebro.resampledata) 的这里的滤波器变换timeframe和

观察家Reference Benchmark class backtrader.observers.Benchmark() 这名观察员存储returns战略的`和return的参考资产其是传递到system. Params的DATAS之一: timeframe(默认值:None)如果None然后在整个回测期间完全恢复将reported compression(默认:None) 只用于子天的时间期限内,例如工作按小时时限通过指定“TimeFrame.Minutes”和60作为compression data(默认值:None) 参考资产跟踪,以允许comparison. NOTE:这个数据必须已

与OANDA Oanda The集成支持: Live Datafeeding Live Trading Requirements oandapy Install:pip install git+https://github.com/oanda/oandapy.git pytz(可选,并不推荐) 由于外汇的全球整体和全天候性质,选择工作UTC时间。您还可以与所需输出时区工作,如果wished. Sample Code The源包含下一个完整的示例: samples/oandatest/oandatest.py OANDA – 在store 这家商店是实时数据馈送/贸易支持的基石,提供

smtpd– SMTP服务器 源代码:LIB / smtpd.py 该模块提供了几个类来实现SMTP(电子邮件)服务器. 也可以看看 aiosmtpd软件包是此模块的推荐替代品。它基于asyncio并提供了更直接的API。smtpd应该被认为是弃用的 存在多个服务器实现;一个是genericdo-nothing实现,可以被覆盖,而另外两个提供特定的邮件发送策略. 此外,SMTPChannel可以扩展为使用SMTP客户端实现非常具体的交互行为. 代码支持 RFC 5321 ,加上 RFC 1870 SIZE和RFC 6531 SMTPUTF8 extensions. SMTPServ

sched– 事件调度程序 源代码: Lib / sched.py sched模块定义了一个实现通用事件调度程序的类: class sched.scheduler(timefunc=time.monotonic, delayfunc=time.sleep) schedulerclass定义了一个调度事件的通用接口。它需要两个函数来实际处理“外部世界” – timefunc应该可以不带参数调用,并返回一个数字(“时间”,任何单位)。如果time.monotonic不可用,则timefunc默认为time.time。delayfunc函数应该可以使用one//gument调

logging– Python的记录工具 源代码: Lib / logging / __ init__.py 重要 此页面包含API参考信息。有关更高级主题的教程信息和讨论,请参阅 基础教程 高级教程 记录食谱 此模块定义实现灵活的功能和类应用程序和库的事件日志系统. 使用标准库模块提供的日志记录API的关键好处是所有Python模块都可以参与日志记录,因此您的应用程序日志可以包含您自己的消息,这些消息集成了来自第三方的消息partymodules. 该模块提供了许多功能和灵活性。如果您不熟悉日志记录,最好的方法就是查看教程(参见右侧的链接). 模块定义的基本类及其功能如下所示。

classscrapy.signalmanager.SignalManager(sender = _Anonymous ) connect(接收器,信号,** kwargs ) 将接收器功能连接到信号。 信号可以是任何对象,尽管Scrapy附带了一些预定信号,这些信号记录在信号 部分中。 参数: receiver(callable) – 要连接的函数 signal(object) – 要连接的信号 disconnect(接收器,信号,** kwargs ) 断开接收器功能与信号的连接。这与connect()方法具有相反的效果,并且参数是相同的。 disconnect_a

本节介绍Scrapy核心API,它适用于扩展和中间件的开发人员。 抓取工具 Scrapy API的主要入口点是Crawler 对象,通过from_crawler类方法传递给扩展。此对象提供对所有Scrapy核心组件的访问,这是扩展访问它们并将其功能挂钩到Scrapy的唯一方法。 Extension Manager负责加载和跟踪已安装的扩展,并通过EXTENSIONS设置配置它,其中包含所有可用扩展的字典及其顺序,类似于您配置下载中间件的方式。 classscrapy.crawler.Crawler(spidercls,settings ) 必须使用scrapy.spiders.Spider子类

classscrapy.loader.ItemLoader([item,selector,response,]** kwargs ) 返回一个新的Item Loader来填充给定的Item。如果没有给出项目,则使用该类自动实例化一个项目 default_item_class。 当使用选择器或响应参数进行实例化时,ItemLoader该类提供了使用选择器从网页中提取数据的便利机制。 参数: 项(Item对象) -项目实例来填充利用后续调用 add_xpath(),add_css()或add_value()。 selector(Selectorobject) – 使用add_xpath