首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏小满

    [main] INFO com.course.Application - Started Application in 11.272 seconds (JVM running for 13.498)

    com.mongodb.MongoSocketOpenException: Exception opening socket at com.mongodb.internal.connection.SocketStream.open (SocketStream.java:70) at com.mongodb.internal.connection.InternalStreamConnection.open(InternalStreamConnection.java com.mongodb.internal.connection.SocketStreamHelper.initialize(SocketStreamHelper.java:64) at com.mongodb.internal.connection.SocketStream.initializeSocket (SocketStream.java:79) at com.mongodb.internal.connection.SocketStream.open(SocketStream.java:65) .

    1.4K20发布于 2020-02-13
  • 从零开始实现一个C++高性能服务器框架----Stream模块

    继承Stream,针对Socket的读写,本质上就是调用了Socket的读写方法 class SocketStream : public Stream { public: typedef std::shared_ptr<SocketStream> ptr; // owner表示是否直接接管sock,负责它的close SocketStream(Socket: :ptr sock, bool owner = true); ~SocketStream(); virtual int read(void* buffer, size_t length return * @retval >0 返回实际接收到的数据长度 * @retval =0 socket被远端关闭 * @retval <0 socket错误 */ int SocketStream return * @retval >0 返回实际接收到的数据长度 * @retval =0 socket被远端关闭 * @retval <0 socket错误 */ int SocketStream

    19810编辑于 2025-12-16
  • 来自专栏大数据学习笔记

    Spark2.x学习笔记:18、Spark Streaming程序解读

    wordCounts.print() //5.启动流式处理 ssc.start() ssc.awaitTermination() 18.4 流式数据输入 (1)内置数据源(StreamingContext) socketStream

    1.1K60发布于 2018-01-02
  • 来自专栏sktj

    python 抽象基类 abstractmethod

    instantiate abstract class # IStream with abstract methods read, write 抽象类的目的就是让别的类继承它并实现特定的抽象方法: class SocketStream

    1K10发布于 2019-12-13
  • 从零开始实现一个C++高性能服务器框架----Http模块

    3.3 Uri 对string uri的解析,具体请参看源码 3.4 HttpSession 继承自SocketStream,实现了在套接字流上读取HTTP请求与发送HTTP响应的功能,在读取HTTP请求时需要借助 class HttpSession : public SocketStream { public: typedef std::shared_ptr<HttpSession> ptr; 发送响应 session->sendResponse(rsp); }while(m_isKeepalive); } 3.6 HttpConnection HTTP客户端,继承自SocketStream class HttpConnection : public SocketStream{ public: HttpResponse::ptr recvResponse(); // 接收响应 int sendRequest(HttpRequest::ptr req); // 发送请求 // ... }; 为了方便使用,封装了几个发送请求的方法 class HttpConnection : public SocketStream

    27510编辑于 2025-12-16
  • 来自专栏857-Bigdata

    【Flink】 WaterMark 详解

    env.setParallelism(1); // env.getConfig().setAutoWatermarkInterval(100); DataStream<String> socketStream = env.socketTextStream("localhost", 9999); DataStream<Tuple2<String, Long>> resultStream = socketStream env.setStreamTimeCharacteristic(TimeCharacteristic.EventTime); env.setParallelism(1); DataStream<String> socketStream SingleOutputStreamOperator<Tuple2<String, Long>> resultStream = socketStream // Time.seconds

    1.6K11编辑于 2022-05-17
  • 来自专栏开源心路

    seatunnel 架构

    spark.streaming.batchDuration = 5 spark.app.name = "seatunnel" spark.ui.port = 13000 } input { socketStream delimiter = "," } } output { stdout {} } Flink env { execution.parallelism = 1 } source { SocketStream

    1.1K30编辑于 2023-06-30
  • 来自专栏爱生活爱编程

    ignite 2.11.0 节点发现原理及源码分析

    MessageWorker–>…–>joinTopology:629, ClientImpl–>sendJoinRequest, ClientImpl) @Nullable private T3<SocketStream

    92410编辑于 2021-12-08
  • 来自专栏token的技术分享

    您可知道如何通过HTTP2实现TCP的内网穿透???

    stream.Close(); }); // 得到客户端的流,然后给我们的SafeWriteStream,然后我们就可以进行转发了 var socketStream await Task.WhenAll( stream.CopyToAsync(socketStream, context.RequestAborted), socketStream.CopyToAsync(stream, context.RequestAborted) ); } catch (Exception

    29510编辑于 2024-04-30
  • 来自专栏Tyrant Lucifer

    Apache Seatunnel - 架构解析

    spark.streaming.batchDuration = 5 spark.app.name = "seatunnel" spark.ui.port = 13000 } input { socketStream } } output { stdout {} } Flink env { execution.parallelism = 1 } source { SocketStream

    6.2K30编辑于 2022-08-30
  • 来自专栏Spark学习技巧

    聊聊流式批处理

    下面我们一步步将其改造成spark Streaming的 SocketStream。 在伪异步模式,我们是客户端通过TCP链接到服务端。

    1K70发布于 2018-01-31
  • 来自专栏Spark学习技巧

    以上帝视角看看Spark Streaming实现

    下面浪尖带领一步步将其改造成spark Streaming的 SocketStream。 在伪异步模式,我们是客户端通过TCP链接到服务端。

    54420发布于 2020-05-25
  • 来自专栏木东居士的专栏

    Spark源码解析:DStream

    StorageLevel.MEMORY_AND_DISK_SER_2 ): ReceiverInputDStream[String] = withNamedScope("socket text stream") { socketStream [String](hostname, port, SocketReceiver.bytesToLines, storageLevel) } def socketStream[T: ClassTag](

    1K40发布于 2018-05-25
  • 来自专栏java一日一条

    10 个最适合 Web 和 APP 开发的 NodeJS 框架

    Socket Stream SocketStream 是一个有趣的框架,专注于客户端和服务端数据的快速同步,它致力于前后端数据的实时更新。 SocketStream framework 在最近几月获得了很好的发展,未来一片光明。

    4.1K20发布于 2018-09-18
  • 来自专栏大数据成长之路

    快速入门Flink (9) —— DataStream API 开发之【Time 与 Window】

    StreamExecutionEnvironment = StreamExecutionEnvironment.getExecutionEnvironment // 创建 SocketSource val socketStream node01",9999) // 对 stream 进行处理并按 key 聚合 val keyByStream: KeyedStream[(String, String), Tuple] = socketStream.map

    1.3K20发布于 2021-01-21
  • 来自专栏大数据文摘

    业界 | 成为CTO之前,我希望有人告诉我这些

    Amazon Web Services, Elastic Beanstalk, Firebase, AngularJS, Coffeescript, Kafka, Simple Queue System, SocketStream

    38920发布于 2018-05-23
  • 来自专栏岑玉海

    Spark源码系列(八)Spark Streaming实例分析

    storageLevel: StorageLevel = StorageLevel.MEMORY_AND_DISK_SER_2 ): ReceiverInputDStream[String] = { socketStream } 1、StoageLevel是StorageLevel.MEMORY_AND_DISK_SER_2 2、使用SocketReceiver的bytesToLines把输入流转换成可遍历的数据 继续看socketStream

    1K70发布于 2018-02-28
  • 来自专栏全栈程序员必看

    Spark Streaming详解(重点窗口计算)

    * @tparam T Type of the objects received (after converting bytes to objects) */ def socketStream

    57020编辑于 2022-09-14
  • 来自专栏大数据之路

    3000字 | 一文讲透redis在大数据开发中的应用场景

    这里我利用mapWithState实现了一个计数的demo:程序的数据源是9999端口的socketStream,我向端口写入数据:随后输出状态数据:我是同时写入的前六行数据,所以这六条数据都在同一个RDD

    1.3K91编辑于 2024-07-12
  • 来自专栏最新最全的大数据技术体系

    一篇文章搞定数据同步工具SeaTunnel

    Email √ Hbase √ √ Kafka √ Console √ Kudu √ √ Redis √ √ Stream FakeStream √ KafkaStream √ SocketSTream

    16K40编辑于 2023-07-28
领券