当前位置: 首页 > news >正文

网站建设的价格外贸建站

网站建设的价格,外贸建站,作品集的个人网站怎么做,企业年金保险是一种什么保险文章目录 22:FineBI配置数据集23:FineBI构建报表24:FineBI实时配置测试附录二:离线消费者完整代码 22:FineBI配置数据集 目标:实现FineBI访问MySQL结果数据集的配置 实施 安装FineBI 参考《FineBI Windows…

文章目录

    • 22:FineBI配置数据集
    • 23:FineBI构建报表
    • 24:FineBI实时配置测试
    • 附录二:离线消费者完整代码

22:FineBI配置数据集

  • 目标实现FineBI访问MySQL结果数据集的配置

  • 实施

    • 安装FineBI

      • 参考《FineBI Windows版本安装手册.docx》安装FineBI

        image-20210906214702837

    • 配置连接

      image-20210906214908806

      image-20210906214943267

      image-20210906215001069

      数据连接名称:Momo
      用户名:root
      密码:自己MySQL的密码
      数据连接URL:jdbc:mysql://node1:3306/momo?useUnicode=true&characterEncoding=utf8
      

      image-20210906215136987

      image-20210906215313596

    • 数据准备

      image-20210906233741527

      image-20210906215517834

      image-20210906215600395

      SELECT  id, momo_totalcount,momo_province,momo_username,momo_msgcount,CASE momo_grouptype WHEN '1' THEN '总消息量' WHEN '2' THEN '各省份发送量'  WHEN '3' THEN '各省份接收量'WHEN '4' THEN '各用户发送量' WHEN '5' THEN '各用户接收量' END AS momo_grouptype
      FROM  momo_count
      
  • 小结

    • 实现FineBI访问MySQL结果数据集的配置

23:FineBI构建报表

  • 目标实现FineBI实时报表构建

  • 路径

    • step1:实时报表构建
    • step2:实时报表配置
    • step3:实时刷新测试
  • 实施

    • 实时报表构建

      • 新建仪表盘

        image-20210906221339838

        image-20210906221410591

      • 添加标题

        image-20210906221452201

        image-20210906221633739

      • 实时总消息数

        image-20210906225231210

      • 发送消息最多的Top10用户

        image-20210906221821438

        image-20210906222156861

        image-20210906222225524

        image-20210906222300546

        image-20210906222336466

        image-20210906222405217

        image-20210906222544774

        image-20210906222815956

      • 接受消息最多的Top10用户

        image-20210906224107608

        image-20210906224155452

        image-20210906224301084

        image-20210906224422220

      • 各省份发送消息Top10

        image-20210906224657081

        image-20210906224806298

        image-20210906224850783

      • 各省份接收消息Top10

        image-20210906224548114

        image-20210906223310186

        image-20210906223414046

        image-20210906223433477

        image-20210906223453710

        image-20210906223805626

      • 各省份总消息量

        image-20210906225451414

        image-20210906225508401

        image-20210906225557658

        image-20210906230243869

  • 小结

    • 实现FineBI实时报表构建

24:FineBI实时配置测试

  • 目标:实现实时报表测试

  • 实施

    • 实时报表配置

      • 官方文档:https://help.fanruan.com/finebi/doc-view-363.html

      • 添加jar包:将jar包放入FineBI安装目录的 webapps\webroot\WEB-INF\lib目录下

        image-20210906230548177

        • 注意:如果提示已存在,就选择覆盖
      • 添加JS文件

        • 创建js文件:refresh.js

          setTimeout(function () {var b =document.title;var a =BI.designConfigure.reportId;//获取仪表板id//这里要指定自己仪表盘的idif (a=="d574631848bd4e33acae54f986d34e69") {setInterval(function () {BI.SharingPool.put("controlFilters", BI.Utils.getControlCalculations());//Data.SharingPool.put("controlFilters", BI.Utils.getControlCalculations());BI.Utils.broadcastAllWidgets2Refresh(true);}, 3000);//5000000为定时刷新的频率,单位ms}
          }, 2000)
          
        • 将创建好的refresh.js文件放至 FineBI 安装目录%FineBI%/webapps/webroot中

          image-20210906231356346

        • 关闭FineBI缓存,然后关闭FineBI

          image-20210906231254734

        • 修改jar包,添加js

          image-20210906231519478

          image-20210906231626750

          image-20210906231721464

          image-20210906231735007

          <!-- 增加刷新功能 --> 
          <script type="text/javascript" src="/webroot/refresh.js"></script>
          
        
        
      • 重启FineBI

  • 实时刷新测试

    • 清空MySQL结果表

    • 启动Flink程序:运行MoMoFlinkCount

    • 启动Flume程序

      cd /export/server/flume-1.9.0-bin
      bin/flume-ng agent -c conf/ -n a1 -f usercase/momo_mem_kafka.properties -Dflume.root.logger=INFO,console
      
    • 启动模拟数据

      java -jar /export/data/momo_init/MoMo_DataGen.jar \
      /export/data/momo_init/MoMo_Data.xlsx \
      /export/data/momo_data/ \
      10
      
      
    - 观察报表

image-20210906235752933

image-20210906235808012

  • 小结

    • 实现FineBI实时测试
## 附录一:Maven依赖​```xml<!--远程仓库--><repositories><repository><id>aliyun</id><url>http://maven.aliyun.com/nexus/content/groups/public/</url><releases><enabled>true</enabled></releases><snapshots><enabled>false</enabled><updatePolicy>never</updatePolicy></snapshots></repository></repositories><dependencies><!--Hbase 客户端--><dependency><groupId>org.apache.hbase</groupId><artifactId>hbase-client</artifactId><version>2.1.0</version></dependency><!--kafka 客户端--><dependency><groupId>org.apache.kafka</groupId><artifactId>kafka-clients</artifactId><version>2.4.1</version></dependency><!--JSON解析工具包--><dependency><groupId>com.alibaba</groupId><artifactId>fastjson</artifactId><version>1.2.62</version></dependency><!--Flink依赖--><dependency><groupId>org.apache.flink</groupId><artifactId>flink-java</artifactId><version>1.10.0</version></dependency><dependency><groupId>org.apache.flink</groupId><artifactId>flink-streaming-java_2.11</artifactId><version>1.10.0</version></dependency><dependency><groupId>org.apache.flink</groupId><artifactId>flink-runtime-web_2.11</artifactId><version>1.10.0</version></dependency><!-- flink操作hdfs、Kafka、MySQL、Redis,所需要导入该包--><dependency><groupId>org.apache.flink</groupId><artifactId>flink-shaded-hadoop-2-uber</artifactId><version>2.7.5-10.0</version></dependency><dependency><groupId>org.apache.flink</groupId><artifactId>flink-connector-kafka_2.11</artifactId><version>1.10.0</version></dependency><dependency><groupId>org.apache.flink</groupId><artifactId>flink-jdbc_2.11</artifactId><version>1.10.0</version></dependency><dependency><groupId>org.apache.bahir</groupId><artifactId>flink-connector-redis_2.11</artifactId><version>1.0</version></dependency><!--HTTP请求的的依赖--><dependency><groupId>org.apache.httpcomponents</groupId><artifactId>httpclient</artifactId><version>4.5.4</version></dependency><!--MySQL连接驱动--><dependency><groupId>mysql</groupId><artifactId>mysql-connector-java</artifactId><version>5.1.38</version></dependency></dependencies><build><plugins><plugin><groupId>org.apache.maven.plugins</groupId><artifactId>maven-compiler-plugin</artifactId><version>3.1</version><configuration><target>1.8</target><source>1.8</source></configuration></plugin></plugins></build>

附录二:离线消费者完整代码

package bigdata.itcast.cn.momo.offline;import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.TableName;
import org.apache.hadoop.hbase.client.Connection;
import org.apache.hadoop.hbase.client.ConnectionFactory;
import org.apache.hadoop.hbase.client.Put;
import org.apache.hadoop.hbase.client.Table;
import org.apache.hadoop.hbase.util.Bytes;
import org.apache.hadoop.hbase.util.MD5Hash;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer;
import org.apache.kafka.clients.consumer.OffsetAndMetadata;
import org.apache.kafka.common.TopicPartition;import java.io.IOException;
import java.text.ParseException;
import java.text.SimpleDateFormat;
import java.time.Duration;
import java.util.*;/*** @ClassName MomoKafkaToHbase* @Description TODO 离线场景:消费Kafka的数据写入Hbase* @Create By     Maynor*/
public class MomoKafkaToHbase {private  static SimpleDateFormat format = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");private static Connection conn;private static Table table;private static TableName tableName = TableName.valueOf("MOMO_CHAT:MOMO_MSG");//表名private static byte[] family = Bytes.toBytes("C1");//列族//todo:2-构建Hbase连接//静态代码块: 随着类的加载而加载,一般只会加载一次,避免构建多个连接影响性能static{try {//构建配置对象Configuration conf = HBaseConfiguration.create();conf.set("hbase.zookeeper.quorum","node1:2181,node2:2181,node3:2181");//构建连接conn = ConnectionFactory.createConnection(conf);//获取表对象table = conn.getTable(tableName);} catch (IOException e) {e.printStackTrace();}}public static void main(String[] args) throws Exception {//todo:1-构建消费者,获取数据consumerKafkaToHbase();
//        String momoRowkey = getMomoRowkey("2020-08-13 12:30:00", "13071949728", "17719988692");
//        System.out.println(momoRowkey);}/*** 用于消费Kafka的数据,将合法数据写入Hbase*/private static void consumerKafkaToHbase() throws Exception {//构建配置对象Properties props = new Properties();//指定服务端地址props.setProperty("bootstrap.servers", "node1:9092,node2:9092,node3:9092");//指定消费者组的idprops.setProperty("group.id", "momo1");//关闭自动提交props.setProperty("enable.auto.commit", "false");//指定K和V反序列化的类型props.setProperty("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");props.setProperty("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");//构建消费者的连接KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props);//指定订阅哪些Topicconsumer.subscribe(Arrays.asList("MOMO_MSG"));//持续拉取数据while (true) {//向Kafka请求拉取数据,等待Kafka响应,在100ms以内如果响应,就拉取数据,如果100ms内没有响应,就提交下一次请求: 100ms为等待Kafka响应时间//拉取到的所有数据:多条KV数据都在ConsumerRecords对象,类似于一个集合ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(100));//todo:3-处理拉取到的数据:打印//取出每个分区的数据进行处理Set<TopicPartition> partitions = records.partitions();//获取本次数据中所有分区//对每个分区的数据做处理for (TopicPartition partition : partitions) {List<ConsumerRecord<String, String>> partRecords = records.records(partition);//取出这个分区的所有数据//处理这个分区的数据long offset = 0;for (ConsumerRecord<String, String> record : partRecords) {//获取TopicString topic = record.topic();//获取分区int part = record.partition();//获取offsetoffset = record.offset();//获取KeyString key = record.key();//获取ValueString value = record.value();System.out.println(topic + "\t" + part + "\t" + offset + "\t" + key + "\t" + value);//将Value数据写入Hbaseif(value != null && !"".equals(value) && value.split("\001").length == 20 ){writeToHbase(value);}}//手动提交分区的commit offsetMap<TopicPartition, OffsetAndMetadata> offsets = Collections.singletonMap(partition,new OffsetAndMetadata(offset+1));consumer.commitSync(offsets);}}}/*** 用于实现具体的写入Hbase的方法* @param value*/private static void writeToHbase(String value) throws Exception {//todo:3-写入Hbase//切分数据String[] items = value.split("\001");String stime = items[0];String sender_accounter = items[2];String receiver_accounter = items[11];//构建rowkeyString rowkey = getMomoRowkey(stime,sender_accounter,receiver_accounter);//构建PutPut put = new Put(Bytes.toBytes(rowkey));//添加列put.addColumn(Bytes.toBytes("C1"),Bytes.toBytes("msg_time"),Bytes.toBytes(items[0]));put.addColumn(Bytes.toBytes("C1"),Bytes.toBytes("sender_nickyname"),Bytes.toBytes(items[1]));put.addColumn(Bytes.toBytes("C1"),Bytes.toBytes("sender_account"),Bytes.toBytes(items[2]));put.addColumn(Bytes.toBytes("C1"),Bytes.toBytes("sender_sex"),Bytes.toBytes(items[3]));put.addColumn(Bytes.toBytes("C1"),Bytes.toBytes("sender_ip"),Bytes.toBytes(items[4]));put.addColumn(Bytes.toBytes("C1"),Bytes.toBytes("sender_os"),Bytes.toBytes(items[5]));put.addColumn(Bytes.toBytes("C1"),Bytes.toBytes("sender_phone_type"),Bytes.toBytes(items[6]));put.addColumn(Bytes.toBytes("C1"),Bytes.toBytes("sender_network"),Bytes.toBytes(items[7]));put.addColumn(Bytes.toBytes("C1"),Bytes.toBytes("sender_gps"),Bytes.toBytes(items[8]));put.addColumn(Bytes.toBytes("C1"),Bytes.toBytes("receiver_nickyname"),Bytes.toBytes(items[9]));put.addColumn(Bytes.toBytes("C1"),Bytes.toBytes("receiver_ip"),Bytes.toBytes(items[10]));put.addColumn(Bytes.toBytes("C1"),Bytes.toBytes("receiver_account"),Bytes.toBytes(items[11]));put.addColumn(Bytes.toBytes("C1"),Bytes.toBytes("receiver_os"),Bytes.toBytes(items[12]));put.addColumn(Bytes.toBytes("C1"),Bytes.toBytes("receiver_phone_type"),Bytes.toBytes(items[13]));put.addColumn(Bytes.toBytes("C1"),Bytes.toBytes("receiver_network"),Bytes.toBytes(items[14]));put.addColumn(Bytes.toBytes("C1"),Bytes.toBytes("receiver_gps"),Bytes.toBytes(items[15]));put.addColumn(Bytes.toBytes("C1"),Bytes.toBytes("receiver_sex"),Bytes.toBytes(items[16]));put.addColumn(Bytes.toBytes("C1"),Bytes.toBytes("msg_type"),Bytes.toBytes(items[17]));put.addColumn(Bytes.toBytes("C1"),Bytes.toBytes("distance"),Bytes.toBytes(items[18]));put.addColumn(Bytes.toBytes("C1"),Bytes.toBytes("message"),Bytes.toBytes(items[19]));//执行写入table.put(put);}/*** 基于消息时间、发送人id、接受人id构建rowkey* @param stime* @param sender_accounter* @param receiver_accounter* @return* @throws Exception*/private static String getMomoRowkey(String stime, String sender_accounter, String receiver_accounter) throws Exception {//转换时间戳long time = format.parse(stime).getTime();String suffix = sender_accounter+"_"+receiver_accounter+"_"+time;//构建MD5String prefix = MD5Hash.getMD5AsHex(Bytes.toBytes(suffix)).substring(0,8);//合并返回return prefix+"_"+suffix;}
}

文章转载自:
http://auxocardia.sqxr.cn
http://tenorite.sqxr.cn
http://chevalet.sqxr.cn
http://winesap.sqxr.cn
http://londony.sqxr.cn
http://bicentennial.sqxr.cn
http://pueblo.sqxr.cn
http://ulsterman.sqxr.cn
http://allobaric.sqxr.cn
http://jagatai.sqxr.cn
http://unfruitful.sqxr.cn
http://saluki.sqxr.cn
http://elfish.sqxr.cn
http://incoagulable.sqxr.cn
http://ariadne.sqxr.cn
http://shinkansen.sqxr.cn
http://elasticizer.sqxr.cn
http://connivancy.sqxr.cn
http://quinsy.sqxr.cn
http://transmontane.sqxr.cn
http://kama.sqxr.cn
http://histomap.sqxr.cn
http://sunniness.sqxr.cn
http://lunes.sqxr.cn
http://viscerogenic.sqxr.cn
http://belike.sqxr.cn
http://concertina.sqxr.cn
http://submarginal.sqxr.cn
http://womaniser.sqxr.cn
http://gallnut.sqxr.cn
http://halogenation.sqxr.cn
http://selfless.sqxr.cn
http://overplus.sqxr.cn
http://smokestack.sqxr.cn
http://vehemently.sqxr.cn
http://temptation.sqxr.cn
http://approval.sqxr.cn
http://thorax.sqxr.cn
http://sexidecimal.sqxr.cn
http://fukushima.sqxr.cn
http://grat.sqxr.cn
http://schrank.sqxr.cn
http://counseling.sqxr.cn
http://attackman.sqxr.cn
http://piggle.sqxr.cn
http://labyrinthine.sqxr.cn
http://radiographic.sqxr.cn
http://shoelace.sqxr.cn
http://equangular.sqxr.cn
http://snuzzle.sqxr.cn
http://biscuit.sqxr.cn
http://armipotence.sqxr.cn
http://dinar.sqxr.cn
http://undeflected.sqxr.cn
http://townwards.sqxr.cn
http://atopy.sqxr.cn
http://fetishist.sqxr.cn
http://tactful.sqxr.cn
http://integrationist.sqxr.cn
http://anisaldehyde.sqxr.cn
http://scotia.sqxr.cn
http://logarithmic.sqxr.cn
http://uther.sqxr.cn
http://delime.sqxr.cn
http://jg.sqxr.cn
http://microplankton.sqxr.cn
http://lap.sqxr.cn
http://dryly.sqxr.cn
http://grading.sqxr.cn
http://polyglottery.sqxr.cn
http://thriftlessly.sqxr.cn
http://mundane.sqxr.cn
http://don.sqxr.cn
http://racemism.sqxr.cn
http://seagull.sqxr.cn
http://secret.sqxr.cn
http://carline.sqxr.cn
http://dejeuner.sqxr.cn
http://smackeroo.sqxr.cn
http://molluskan.sqxr.cn
http://tressure.sqxr.cn
http://iconophile.sqxr.cn
http://individually.sqxr.cn
http://climatic.sqxr.cn
http://ranchette.sqxr.cn
http://myxasthenia.sqxr.cn
http://conchie.sqxr.cn
http://trothplight.sqxr.cn
http://ringtaw.sqxr.cn
http://gooney.sqxr.cn
http://buckish.sqxr.cn
http://notgeld.sqxr.cn
http://superstrength.sqxr.cn
http://konakri.sqxr.cn
http://breechcloth.sqxr.cn
http://decentralise.sqxr.cn
http://presiding.sqxr.cn
http://chemise.sqxr.cn
http://recast.sqxr.cn
http://debouchment.sqxr.cn
http://www.15wanjia.com/news/103064.html

相关文章:

  • 游戏网站平台怎么做太原seo软件
  • cms网站搭建好了再怎么做长春网站推广排名
  • 清华紫光网站建设宁波网站推广联系方式
  • 给我做网站的人老是给我留点尾巴中国推广网站
  • 延边网站开发营销广告网站
  • 做代购网站有哪些东西吗海外品牌推广
  • 有做公司网站的吗seo好找工作吗
  • 注册安全工程师好考吗给网站做seo的价格
  • wordpress主题带手机版seo网页优化工具
  • 桥西区附近网站建设价格网站推广具体内容
  • 自己做视频网站怎么处理高并发微信广告
  • 生产类营销型网站网站开发详细流程
  • 网站首页为什么不收录站长之家网站排名
  • 金鹏建设集团网站网络课程
  • 西宁网站制作多少钱指数基金定投技巧
  • 大型门户网站开发百度在线扫题入口
  • 做网站如何写需求成crm软件
  • 做网站项目前怎么收集需求seo网络推广公司
  • 中信建设有限责任公司崔玮长春seo顾问
  • 搭建网站 在线浏览功能下载优化大师
  • 镇江网页设计师招聘济南seo外贸网站建设
  • 网络安全管理系统优化推广
  • 家教网站如何做互联网app推广具体怎么做
  • 58招聘网站官网百度官网认证多少钱一年
  • 梵美传媒网站是谁做的蚌埠seo外包
  • 凡客登陆优化营商环境存在问题及整改措施
  • 沈阳今天最新通知绍兴seo推广公司
  • wordpress数据都被存在哪里网站优化推广
  • 2017做那些网站致富网络公司网站模板
  • 小学生做甜品的网站动态网站设计毕业论文