建设网站 费用吗文字堆积网站
2026/2/18 23:47:33 网站建设 项目流程
建设网站 费用吗,文字堆积网站,宁波职业能力建设网,蝙蝠做等级的网站大数据从入门到实战 - HBase 开发#xff1a;使用Java操作HBase 一、关于此次实践 1、实战简介2、全部任务 二、实践详解 1、第1关#xff1a;创建表2、第2关#xff1a;添加数据3、第3关#xff1a;获取数据4、第4关#xff1a;删除表 叮嘟#xff01;这里是小啊呜的…大数据从入门到实战 - HBase 开发使用Java操作HBase一、关于此次实践1、实战简介2、全部任务二、实践详解1、第1关创建表2、第2关添加数据3、第3关获取数据4、第4关删除表叮嘟这里是小啊呜的学习课程资料整理。好记性不如烂笔头今天也是努力进步的一天。一起加油进阶吧一、关于此次实践1、实战简介HBase和Hadoop一样都是用Java进行开发的本次实训我们就来学习如何使用Java编写代码来操作HBase数据库。实验环境 hadoop-2.7 JDK8.0 HBase2.1.12、全部任务二、实践详解1、第1关创建表package step1; import java.io.IOException; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.hbase.HBaseConfiguration; import org.apache.hadoop.hbase.HColumnDescriptor; import org.apache.hadoop.hbase.HTableDescriptor; import org.apache.hadoop.hbase.TableName; import org.apache.hadoop.hbase.client.Admin; import org.apache.hadoop.hbase.client.ColumnFamilyDescriptor; import org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder; import org.apache.hadoop.hbase.client.Connection; import org.apache.hadoop.hbase.client.ConnectionFactory; import org.apache.hadoop.hbase.client.Get; import org.apache.hadoop.hbase.client.Put; import org.apache.hadoop.hbase.client.Result; import org.apache.hadoop.hbase.client.ResultScanner; import org.apache.hadoop.hbase.client.Scan; import org.apache.hadoop.hbase.client.Table; import org.apache.hadoop.hbase.client.TableDescriptor; import org.apache.hadoop.hbase.client.TableDescriptorBuilder; import org.apache.hadoop.hbase.util.Bytes; /** * HBase 1.0 version of ExampleClient that uses {code Connection}, * {code Admin} and {code Table}. */ public class Task{ public void createTable()throws Exception{ /********* Begin *********/ Configuration config HBaseConfiguration.create(); Connection connection ConnectionFactory.createConnection(config); try { // Create table Admin admin connection.getAdmin(); try { TableName tableName TableName.valueOf(dept); // 新 API 构建表 // TableDescriptor 对象通过 TableDescriptorBuilder 构建 TableDescriptorBuilder tableDescriptor TableDescriptorBuilder.newBuilder(tableName); ColumnFamilyDescriptor family ColumnFamilyDescriptorBuilder.newBuilder(Bytes.toBytes(data)).build();// 构建列族对象 tableDescriptor.setColumnFamily(family); // 设置列族 admin.createTable(tableDescriptor.build()); // 创建表 TableName emp TableName.valueOf(emp); // 新 API 构建表 // TableDescriptor 对象通过 TableDescriptorBuilder 构建 TableDescriptorBuilder empDescriptor TableDescriptorBuilder.newBuilder(emp); ColumnFamilyDescriptor empfamily ColumnFamilyDescriptorBuilder.newBuilder(Bytes.toBytes(emp)).build();// 构建列族对象 empDescriptor.setColumnFamily(empfamily); // 设置列族 admin.createTable(empDescriptor.build()); // 创建表 } finally { admin.close(); } } finally { connection.close(); } /********* End *********/ } }命令行 start-dfs.sh Hadoop 启动 回车 start-hbase.sh hbase 启动测评2、第2关添加数据package step2; import java.io.IOException; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.hbase.HBaseConfiguration; import org.apache.hadoop.hbase.HColumnDescriptor; import org.apache.hadoop.hbase.HTableDescriptor; import org.apache.hadoop.hbase.TableName; import org.apache.hadoop.hbase.client.Admin; import org.apache.hadoop.hbase.client.ColumnFamilyDescriptor; import org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder; import org.apache.hadoop.hbase.client.Connection; import org.apache.hadoop.hbase.client.ConnectionFactory; import org.apache.hadoop.hbase.client.Get; import org.apache.hadoop.hbase.client.Put; import org.apache.hadoop.hbase.client.Result; import org.apache.hadoop.hbase.client.ResultScanner; import org.apache.hadoop.hbase.client.Scan; import org.apache.hadoop.hbase.client.Table; import org.apache.hadoop.hbase.client.TableDescriptor; import org.apache.hadoop.hbase.client.TableDescriptorBuilder; import org.apache.hadoop.hbase.util.Bytes; public class Task { public void insertInfo()throws Exception{ /********* Begin *********/ Configuration config HBaseConfiguration.create(); Connection connection ConnectionFactory.createConnection(config); Admin admin connection.getAdmin(); TableName tableName TableName.valueOf(tb_step2); TableDescriptorBuilder tableDescriptor TableDescriptorBuilder.newBuilder(tableName); ColumnFamilyDescriptor family ColumnFamilyDescriptorBuilder.newBuilder(Bytes.toBytes(data)).build();// 构建列族对象 tableDescriptor.setColumnFamily(family); // 设置列族 admin.createTable(tableDescriptor.build()); // 创建表 // 添加数据 byte[] row1 Bytes.toBytes(row1); Put put1 new Put(row1); byte[] columnFamily1 Bytes.toBytes(data); // 列 byte[] qualifier1 Bytes.toBytes(String.valueOf(1)); // 列族修饰词 byte[] value1 Bytes.toBytes(张三丰); // 值 put1.addColumn(columnFamily1, qualifier1, value1); byte[] row2 Bytes.toBytes(row2); Put put2 new Put(row2); byte[] columnFamily2 Bytes.toBytes(data); // 列 byte[] qualifier2 Bytes.toBytes(String.valueOf(2)); // 列族修饰词 byte[] value2 Bytes.toBytes(张无忌); // 值 put2.addColumn(columnFamily2, qualifier2, value2); Table table connection.getTable(tableName); table.put(put1); table.put(put2); /********* End *********/ } }测评3、第3关获取数据package step3; import java.io.IOException; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.hbase.HBaseConfiguration; import org.apache.hadoop.hbase.HColumnDescriptor; import org.apache.hadoop.hbase.HTableDescriptor; import org.apache.hadoop.hbase.TableName; import org.apache.hadoop.hbase.client.Admin; import org.apache.hadoop.hbase.client.ColumnFamilyDescriptor; import org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder; import org.apache.hadoop.hbase.client.Connection; import org.apache.hadoop.hbase.client.ConnectionFactory; import org.apache.hadoop.hbase.client.Get; import org.apache.hadoop.hbase.client.Put; import org.apache.hadoop.hbase.client.Result; import org.apache.hadoop.hbase.client.ResultScanner; import org.apache.hadoop.hbase.client.Scan; import org.apache.hadoop.hbase.client.Table; import org.apache.hadoop.hbase.client.TableDescriptor; import org.apache.hadoop.hbase.client.TableDescriptorBuilder; import org.apache.hadoop.hbase.util.Bytes; public class Task { public void queryTableInfo()throws Exception{ /********* Begin *********/ Configuration config HBaseConfiguration.create(); Connection connection ConnectionFactory.createConnection(config); Admin admin connection.getAdmin(); TableName tableName TableName.valueOf(t_step3); Table table connection.getTable(tableName); // 获取数据 Get get new Get(Bytes.toBytes(row1)); // 定义 get 对象 Result result table.get(get); // 通过 table 对象获取数据 //System.out.println(Result: result); // 很多时候我们只需要获取“值” 这里表示获取 data:1 列族的值 byte[] valueBytes result.getValue(Bytes.toBytes(data), Bytes.toBytes(1)); // 获取到的是字节数组 // 将字节转成字符串 String valueStr new String(valueBytes,utf-8); System.out.println(value: valueStr); TableName tableStep3Name TableName.valueOf(table_step3); Table step3Table connection.getTable(tableStep3Name); // 批量查询 Scan scan new Scan(); ResultScanner scanner step3Table.getScanner(scan); try { int i 0; for (Result scannerResult: scanner) { //byte[] value scannerResult.getValue(Bytes.toBytes(data), Bytes.toBytes(1)); // System.out.println(Scan: scannerResult); byte[] row scannerResult.getRow(); System.out.println(rowName: new String(row,utf-8)); } } finally { scanner.close(); } /********* End *********/ } }测评4、第4关删除表package step4; import java.io.IOException; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.hbase.HBaseConfiguration; import org.apache.hadoop.hbase.HColumnDescriptor; import org.apache.hadoop.hbase.HTableDescriptor; import org.apache.hadoop.hbase.TableName; import org.apache.hadoop.hbase.client.Admin; import org.apache.hadoop.hbase.client.ColumnFamilyDescriptor; import org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder; import org.apache.hadoop.hbase.client.Connection; import org.apache.hadoop.hbase.client.ConnectionFactory; import org.apache.hadoop.hbase.client.Get; import org.apache.hadoop.hbase.client.Put; import org.apache.hadoop.hbase.client.Result; import org.apache.hadoop.hbase.client.ResultScanner; import org.apache.hadoop.hbase.client.Scan; import org.apache.hadoop.hbase.client.Table; import org.apache.hadoop.hbase.client.TableDescriptor; import org.apache.hadoop.hbase.client.TableDescriptorBuilder; import org.apache.hadoop.hbase.util.Bytes; public class Task { public void deleteTable()throws Exception{ /********* Begin *********/ Configuration config HBaseConfiguration.create(); Connection connection ConnectionFactory.createConnection(config); Admin admin connection.getAdmin(); TableName tableName TableName.valueOf(t_step4); admin.disableTable(tableName); admin.deleteTable(tableName); /********* End *********/ } }测评Ending更多课程知识学习记录随后再来吧就酱嘎啦注人生在勤不索何获。Java开发的就业市场正在经历结构性调整竞争日益激烈传统纯业务开发岗位如仅完成增删改查业务的后端工程师的需求特别是入门级岗位正显著萎缩。随着企业技术需求升级市场对Java人才的要求已从通用技能转向了更深入的领域经验如云原生、微服务或前沿的AI集成能力。这也导致岗位竞争加剧在一、二线城市求职者不仅面临技术内卷还需应对学历与项目经验的高门槛。大模型为核心的AI领域正展现出前所未有的就业热度与人才红利2025年AI相关新发岗位数量同比激增543%单月增幅最高超过11倍大模型算法工程师位居热门岗位前列。行业顶尖人才的供需严重失衡议价能力极强跳槽薪资涨幅可达30%-50%。值得注意的是市场并非单纯青睐算法研究员而是急需能将大模型能力落地于复杂业务系统的工程人才。这使得具备企业级架构思维和复杂系统整合经验的Java工程师在向“Java大模型”复合人才转型时拥有独特优势成为企业竞相争夺的对象其薪资天花板也远高于传统Java岗位。说真的这两年看着身边一个个搞Java、C、前端、数据、架构的开始卷大模型挺唏嘘的。大家最开始都是写接口、搞Spring Boot、连数据库、配Redis稳稳当当过日子。结果GPT、DeepSeek火了之后整条线上的人都开始有点慌了大家都在想“我是不是要学大模型不然这饭碗还能保多久”先给出最直接的答案一定要把现有的技术和大模型结合起来而不是抛弃你们现有技术掌握AI能力的Java工程师比纯Java岗要吃香的多。即使现在裁员、降薪、团队解散的比比皆是……但后续的趋势一定是AI应用落地大模型方向才是实现职业升级、提升薪资待遇的绝佳机遇如何学习AGI大模型作为一名热心肠的互联网老兵我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。因篇幅有限仅展示部分资料需要点击下方链接即可前往获取2025最新版CSDN大礼包《AGI大模型学习资源包》免费分享**一、2025最新大模型学习路线一个明确的学习路线可以帮助新人了解从哪里开始按照什么顺序学习以及需要掌握哪些知识点。大模型领域涉及的知识点非常广泛没有明确的学习路线可能会导致新人感到迷茫不知道应该专注于哪些内容。我们把学习路线分成L1到L4四个阶段一步步带你从入门到进阶从理论到实战。L1级别:AI大模型时代的华丽登场L1阶段我们会去了解大模型的基础知识以及大模型在各个行业的应用和分析学习理解大模型的核心原理关键技术以及大模型应用场景通过理论原理结合多个项目实战从提示工程基础到提示工程进阶掌握Prompt提示工程。L2级别AI大模型RAG应用开发工程L2阶段是我们的AI大模型RAG应用开发工程我们会去学习RAG检索增强生成包括Naive RAG、Advanced-RAG以及RAG性能评估还有GraphRAG在内的多个RAG热门项目的分析。L3级别大模型Agent应用架构进阶实践L3阶段大模型Agent应用架构进阶实现我们会去学习LangChain、 LIamaIndex框架也会学习到AutoGPT、 MetaGPT等多Agent系统打造我们自己的Agent智能体同时还可以学习到包括Coze、Dify在内的可视化工具的使用。L4级别大模型微调与私有化部署L4阶段大模型的微调和私有化部署我们会更加深入的探讨Transformer架构学习大模型的微调技术利用DeepSpeed、Lamam Factory等工具快速进行模型微调并通过Ollama、vLLM等推理部署框架实现模型的快速部署。整个大模型学习路线L1主要是对大模型的理论基础、生态以及提示词他的一个学习掌握而L3 L4更多的是通过项目实战来掌握大模型的应用开发针对以上大模型的学习路线我们也整理了对应的学习视频教程和配套的学习资料。二、大模型经典PDF书籍书籍和学习文档资料是学习大模型过程中必不可少的我们精选了一系列深入探讨大模型技术的书籍和学习文档它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。书籍含电子版PDF三、大模型视频教程对于很多自学或者没有基础的同学来说书籍这些纯文字类的学习教材会觉得比较晦涩难以理解因此我们提供了丰富的大模型视频教程以动态、形象的方式展示技术概念帮助你更快、更轻松地掌握核心知识。四、大模型项目实战学以致用当你的理论知识积累到一定程度就需要通过项目实战在实际操作中检验和巩固你所学到的知识同时为你找工作和职业发展打下坚实的基础。五、大模型面试题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我们将提供精心整理的大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。因篇幅有限仅展示部分资料需要点击下方链接即可前往获取2025最新版CSDN大礼包《AGI大模型学习资源包》免费分享

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询