• 相关博文
  • 最新资讯
  • ✋ 简介:大家好 ~ 欢迎来到青蛙的池塘,这里是技术分享的池塘 ~📕 系列专栏:Java 源码系列、优化方案系列、生产问题系列等💡 博主正在努力完成 2025 - 2026 年计划:基石计划✍️ 雄关漫道真如铁,而今迈步从头越!
    Y1zH1yuan
    青蛙的池塘
    前天
  • 消息队列(MQ)是一种用于进程间通信的FIFO队列机制,主要解决系统解耦、异步处理和流量削峰问题。常见的MQ框架包括RabbitMQ、Kafka和RocketMQ,各有优缺点和适用场景。RabbitMQ基于AMQP协议,通过生产者、消费者、交换机和队列等核心组件实现消息传递。安装RabbitMQ需先配置Erlang环境,再通过命令行或Web界面管理。Java应用中可通过Spring Boot集成RabbitMQ,配置队列、交换机和绑定关系,实现消息的发送与接收。MQ技术能有效提升系统性能、可靠性和扩展性。
    qq_51621767
    stella·
    9小时前
  • 本文介绍了一位拥有14年经验的毕设指导专家,擅长Java、Python等多种编程语言和大数据、深度学习等项目开发。文中详细展示了一个基于Spark的地震数据可视化分析平台的毕业设计案例,包括数据爬取、存储分析、可视化展示等完整技术流程。该案例采用Python+Spark+MySQL技术栈,适合基础一般的学生上手。文章还记录了真实的答辩问答过程,涉及技术选型、系统部署等关键问题,最后评委给出了肯定评价和建议。文末提供开题报告参考和毕设指导服务信息,帮助学生顺利完成毕业设计。
    shiji3076
    毕设源码-赖学姐
    昨天
  • **Kafka ISR机制是保障数据可靠性的核心,通过动态维护与Leader同步的副本集合(ISR),确保消息持久化和故障恢复。关键点包括:1) ISR判定基于副本LEO是否≥Leader HW及活跃状态;2) acks=all需所有ISR副本确认;3) HW机制防止数据丢失;4) 合理配置min.insync.replicas平衡可靠性与可用性。该机制直接影响Kafka的吞吐量、故障恢复速度及Exactly-Once语义实现。
    qq_41187124
    Jinkxs
    13小时前
  • 上一章咱们给数据库装了个“写缓存”,相当于在市中心车库外建了个临时停车场。确实,车流(写操作)不堵门了。但问题是——这停车场是露天的,且只有三个车位。一旦遇上“双十一”式的高频数据洪流(想象一群饿疯了的吃货同时涌向自助餐厅),这方案立刻露出短板:缓存写满的速度比手机掉电还快,数据要么排队等到天荒地老,要么面临丢失风险。显然,临时方案扛不住持久战。接下来咱们关掉美颜,直面痛点,一步步拆解如何为持续的高频写入设计一个既扛得住、又稳得起的系统方案。道路就在前方,咱们开始铺路。
    weixin_43848166
    一辉ComeOn
    22小时前
  • 摘要 本文介绍了一个基于Flink SQL实现的实时部门人数统计案例。通过Kafka Topic employee_information接收员工信息(包含员工ID、姓名和部门ID),使用Flink SQL对数据进行实时聚合处理,统计每个部门的员工人数,并将结果以Upsert流形式写入另一个Kafka Topic department_counts。 主要内容包括: 环境准备(Flink集群、Kafka Topic创建) 源表定义(Kafka JSON格式) 结果表定义(Upsert-Kafka) 核心聚合
    weixin_43114209
    Hello.Reader
    昨天
  • 拉链表是一种用于存储维度数据历史变更记录的特殊表结构。它通过为每条记录添加“生效时间”和“失效时间”两个字段,来标记该记录的有效周期,从而实现对历史状态的完整保留。类比理解:就像一条拉链,每一节都紧密连接,覆盖整个时间线,无重叠、无空缺。特性说明核心价值实现维度历史状态追踪,支撑准确的时间点分析本质思想用空间换时间,通过时间区间管理生命周期典型应用客户、员工、商品、组织机构等缓慢变化维度技术趋势从手工 SQL 向自动化湖仓平台演进📌一句话总结。
    weixin_40266856
    写代码的【黑咖啡】
    10小时前
  • 本文介绍了Kafka动态分区扩容方案,通过Nacos配置中心实现分区数动态调整。方案采用KafkaAdminClient动态修改分区数,结合自定义分区器和消费者自适应重平衡策略,确保扩容过程不影响业务。核心实现包括:1)Nacos存储分区配置并监听变更;2)自定义分区器基于Murmur2算法计算哈希;3)消费者自动感知分区变化。该方案支持横向扩展,无需重启服务,解决了单节点性能瓶颈问题,同时为未来自动化扩容奠定了基础。
    wolf_410
    wolf_410
    15小时前
  • 本文提供了在Windows系统下安装和配置Apache Kafka的详细步骤指南。主要内容包括环境准备(操作系统、内存、磁盘空间及权限要求)、Java JDK的安装、Kafka的下载与解压、Zookeeper和Kafka的配置修改、通过脚本启动服务,以及创建主题、启动生产者和消费者进行消息收发的完整测试流程。文章通过图文结合的方式,逐步演示了Kafka的安装与基本使用,帮助用户快速完成环境搭建并验证其功能。
    weixin_56368030
    噜噜白
    22小时前
  • Fastadmin中通过RabbitMq实现即时和延迟队列消息的完整版
    json_ligege
    JSON_L
    18小时前
  • 模型微调技术综述:从全参数到高效参数优化 本文系统梳理了当前主流的模型微调技术,主要包括全参数微调、冻结微调、参数高效微调(PEFT)等核心方法。全参数微调通过更新所有层参数实现最优性能但计算成本高;冻结微调仅训练顶层参数,适合资源有限场景;PEFT技术(如LoRA)通过低秩矩阵适配大幅降低参数更新量,成为大模型微调的主流方案。文章详细分析了各类技术的原理、适用场景和计算需求,并提供了基于Hugging Face Transformers和PEFT库的Python实现示例,涵盖NLP领域的典型应用案例。
    weixin_52143112
    weixin_52143112
    昨天
  • 本文研究了基于自然语言处理的会议摘要生成技术,主要对比了抽取式(extractive)和抽象式(abstractive)两种方法。抽取式方法通过TF-IDF、TextRank等技术提取关键句子,而抽象式方法则利用语义理解生成新文本。重点介绍了TextRank算法和TF-IDF技术的实现原理,以及GloVe词嵌入在语义捕捉中的应用。研究指出,虽然抽取式方法实现简单,但可能包含冗余信息;抽象式方法能生成更简洁的摘要,但实现难度较大。未来发展方向包括多模态摘要、实时处理、情感分析等增强功能,以及多语言支持和评估体
    m0_51940505
    晓山清
    昨天
  • 本次 Hive 内置函数实战全面覆盖数学、日期、字符串、条件、聚合及集合统计等类别,通过大量示例验证了函数在数据清洗、转换、分析中的强大能力。重点掌握了 `collect_set` 与 `collect_list` 在去重与保留重复场景下的差异应用,熟练运用 `regexp_replace`、`parse_url`、`get_json_object` 等函数处理非结构化数据,并通过 `percentile`、`var_pop` 等实现统计分析。
    howard2005
    酒城译痴无心剑
    昨天
  • with t1 as (select * from table1) -- 该语句执行会报错-- 正确写法:(没有使用 t1没关系,其后有select就行)
    ZZQHELLO2018
    清平乐的技术博客
    昨天
  • 本文分享了作者开发RabbitMQ Spring Boot Starter的经验与源码解析。作者介绍了1.x版本在生产环境使用一年后被移除的谨慎决策,转而采用更稳妥的方案。重点分析了Spring Boot启动流程中的关键方法refresh(),详细剖析了registerBeanPostProcessors()和doGetBean()等核心方法的执行逻辑。通过源码解读展示了Spring容器初始化过程中bean的创建与管理机制,为理解Spring框架底层原理提供了实用参考。
    qq_34905631
    大飞哥~BigFei
    13小时前
  • 进行高效操作(如过滤、映射、排序等)。它不存储数据,而是通过管道(pipeline)对源数据执行一系列惰性计算的中间操作和终端操作。Stream流是Java 8引入的一种处理集合数据的抽象工具,用于以声明式方式对集合(如。Stream流通过链式调用和惰性计算优化性能,尤其适合大数据量或复杂的数据处理流程。
    2301_81214551
    嘟嘟w
    昨天
  • 本文介绍了使用Flink SQL实现实时订单统计的方案。系统架构包含:订单数据写入Kafka,Flink SQL作业进行实时聚合处理,结果写入MySQL供BI查询。具体实现步骤包括:1) 准备Kafka订单Topic并写入测试数据;2) 在Flink SQL中定义Kafka源表,配置事件时间处理;3) 创建MySQL结果表用于存储分钟级商品统计;4) 编写核心SQL实现每分钟滚动窗口聚合,按商品统计订单数和GMV,并通过JDBC连接器实时Upsert到MySQL。该方案利用Flink的流处理能力,实现了从数
    weixin_43114209
    Hello.Reader
    昨天
  • elasticsearch是经常用到的文档索引工具,使用方便快捷。之前介绍了如何创建和查询索引结构这里进一步示例在创建索引后,如何增加、删除、以及修改数据。所用示例代码参考和修改自网络资料。
    liliang199
    liliangcsdn
    14小时前
  • 生产环境集成鸿蒙 Preferences ,将Token加密存储在本地,调用时动态读取,代码中仅保留占位符(如 <你的GitCode个人访问令牌> ),并在注释中强调安全存储要求。开发初期直接在 app_config.dart 中硬编码GitCode Access Token,不仅存在代码提交时泄露的安全隐患,还频繁出现“Token无效或权限不足”的401错误,导致用户搜索功能完全无法使用。在鸿蒙手机小屏设备上,搜索结果卡片的“语言标签”“更新时间”等信息重叠,文字溢出显示不全,影响用户阅读体验。
    2501_93575716
    解局易否结局
    昨天
  • 虽然你说已经装了 pyspark,但最好给 PyCharm 用一个独立虚拟环境,干净、可控。在弹出页面按以下操作(python版本都可),并将解释器设置为刚添加的(页面右下角)目标:在 Windows 上能 ping/ssh 到虚拟机。(Linux 桌面/终端),不是在 Windows。映射页面--本地路径不用更改,部署路径即是该项目路径。点进去,你会看到当前项目的解释器列表。打开你的项目(可创建一个新项目)。用户名:虚拟机的登录用户名(比如。主机:填入刚才虚拟机的 IP(在虚拟机端可看到新写入的文件。
    weixin_65155753
    睡个好觉345
    14小时前
加载中...