当前位置: 首页 > news >正文

中级网站开发工程师 试题希爱力

中级网站开发工程师 试题,希爱力,深圳市龙华区网站建设,免费的站外推广Flink Streaming Connector Flink是新一代流批统一的计算引擎,它需要从不同的第三方存储引擎中把数据读过来,进行处理,然后再写出到另外的存储引擎中。Connector的作用就相当于一个连接器,连接Flink计算引擎跟外界存储系统。Flin…

Flink Streaming Connector

Flink是新一代流批统一的计算引擎,它需要从不同的第三方存储引擎中把数据读过来,进行处理,然后再写出到另外的存储引擎中。Connector的作用就相当于一个连接器,连接Flink计算引擎跟外界存储系统。Flink里有以下几种方式,当然也不限于这几种方式可以跟外界进行数据交换:
【1】Flink里面预定义了一些sourcesink
【2】Flink内部也提供了一些Boundled connectors
【3】可以使用第三方Apache Bahir项目中提供的连接器;
【4】是通过异步IO方式;

预定义的 source 和 sink

Flink里预定义了一部分sourcesink。在这里分了几类。
[点击并拖拽以移动] ​

基于文件的 source 和 sink

如果要从文本文件中读取数据,可以直接使用:

env.readTextFile(path)

就可以以文本的形式读取该文件中的内容。当然也可以使用:根据指定的fileInputFormat格式读取文件中的内容。

env.readFile(fileInputFormat, path)

如果数据在Flink内进行了一系列的计算,想把结果写出到文件里,也可以直接使用内部预定义的一些sink,比如将结果已文本或csv格式写出到文件中,可以使用DataStreamwriteAsText(path)DataSetwriteAsCsv(path)

基于 Socket 的 Source 和 Sink

提供 Sockethost nameport,可以直接用StreamExecutionEnvironment预定的接口socketTextStream创建基于Socketsource,从该 socket中以文本的形式读取数据。当然如果想把结果写出到另外一个Socket,也可以直接调用DataStream writeToSocket

//从 socket 中读取数据流
env.socketTextStream("localhost",777);
//输出至 socket 
resultDataStream.writeToSocket("hadoop1",6666,new SimpleStringSchema())

基于内存 Collections、Iterators 的 Source

可以直接基于内存中的集合或者迭代器,调用StreamExecutionEnvironment fromCollectionfromElements构建相应的source。结果数据也可以直接printprintToError的方式写出到标准输出或标准错误。详细也可以参考Flink源码中提供的一些相对应的Examples来查看异常预定义 sourcesink的使用方法,例如WordCountSocketWindowWordCount

//从Java.util.Collection集合中读取数据作为数据源
ArrayList<String> list = new ArrayList<>(5);
list.add("flink");
list.add("scala");
list.add("spark");
list.add("hadoop");
list.add("hive");
env.fromCollection(list).print();//从Java.util.Collection集合中读取数据作为数据源env.fromElements("flink", "scala", "spark", "hadoop", "hive").print();

Bundled Connectors

Flink里已经提供了一些绑定的Connector,例如kafka sourcesinkEs sink等。读写kafkaesrabbitMQ时可以直接使用相应 connectorapi即可。

虽然该部分是Flink项目源代码里的一部分,但是真正意义上不算作Flink引擎相关逻辑,并且该部分没有打包在二进制的发布包里面。所以在提交Job时候需要注意,job代码jar包中一定要将相应的connetor相关类打包进去,否则在提交作业时就会失败,提示找不到相应的类,或初始化某些类异常。
[点击并拖拽以移动] ​

Apache Bahir 中的连接器

Apache Bahir最初是从Apache Spark中独立出来项目提供,以提供不限于Spark相关的扩展 / 插件、连接器和其他可插入组件的实现。通过提供多样化的流连接器streaming connectorsSQL数据源扩展分析平台的覆盖面。如有需要写到flumeredis的需求的话,可以使用该项目提供的connector
[点击并拖拽以移动] ​

Async I/O

流计算中经常需要与外部存储系统交互,比如需要关联MySQL中的某个表。一般来说,如果用同步I/O的方式,会造成系统中出现大的等待时间,影响吞吐和延迟。为了解决这个问题,异步I/O可以并发处理多个请求,提高吞吐,减少延迟。Async的原理可参考官方文档
[点击并拖拽以移动] ​

http://www.15wanjia.com/news/48258.html

相关文章:

  • 专业做俄语网站建设百度推广需要什么条件
  • 什么 门户网站网络公司网络推广
  • 10g网站流量站长工具ping
  • 广告设计公司名称推荐黑帽seo教程
  • 烟台百度做网站多少钱网站关键词优化费用
  • 微信公众号托管代运营什么叫优化关键词
  • 野花免费观看日本电影站长之家seo查询官方网站
  • 网站开发一般要用到哪些软件有哪些网络营销顾问
  • 有关学风建设网站seo是搜索引擎优化吗
  • 网站建设导向湖南seo优化首选
  • 龙游网站建设的公司长沙seo网络营销推广
  • 企业信息公示怎么弄seo如何优化网站
  • 江苏淮安建设局网站业务推广方式有哪些
  • 什么网站百度收录好爱站网关键词密度
  • 网上做批发有哪些网站电商网站建设报价
  • 企业网站的建设要注意什么狼雨seo网站
  • 网站建设属于哪种职位seo研究中心道一老师
  • 网站建设账务处理属于什么费用山东百度推广
  • 动态网站开发多少钱seo目标关键词优化
  • 外贸 网站推广计划企业文化的重要性
  • 在线教育类网站模板品牌营销策略
  • 权威的锦州网站建设品牌推广与传播方案
  • 上海疫情发布会seo查询软件
  • 装修房子的效果图 三室二厅二卫沈阳网站关键字优化
  • 网络培训的网站建设实时军事热点
  • 威县建设局网站市场调研报告ppt
  • 中国网站建设排名百度seo排名优化如何
  • 黔东南手机网站建设做百度推广需要什么条件
  • 国务院办公厅关于网站建设要求手机优化助手下载
  • html企业网站源码下载黑帽seo是什么