成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

大數(shù)據(jù)框架及流批一體怎么選?

大數(shù)據(jù)
在日常生活中,我們通常會先把數(shù)據(jù)存儲在一張表中,然后再進行加工、分析,這里就涉及到一個時效性的問題。

背景

在日常生活中,我們通常會先把數(shù)據(jù)存儲在一張表中,然后再進行加工、分析,這里就涉及到一個時效性的問題。

場景一:如果我們處理以年、月為單位的級別的數(shù)據(jù),針對這些大量數(shù)據(jù)的實時性要求并不高。

場景二:如果我們處理的是以天、小時,甚至分鐘為單位的數(shù)據(jù),那么對數(shù)據(jù)的時效性要求就比較高。

在第二種場景下,如果我們?nèi)耘f采用傳統(tǒng)的數(shù)據(jù)處理方式,統(tǒng)一收集數(shù)據(jù),存儲到數(shù)據(jù)庫中,之后在進行分析,就可能無法滿足時效性的要求。

數(shù)據(jù)的計算模式主要分為:

  • 批量計算(batch computing)、
  • 流式計算(stream computing)、
  • 交互計算(interactive computing)、
  • 圖計算(graph computing)等。

其中,流式計算和批量計算是兩種主要的大數(shù)據(jù)計算模式,分別適用于不同的大數(shù)據(jù)應(yīng)用場景。

流數(shù)據(jù)(或數(shù)據(jù)流)是指在時間分布和數(shù)量上無限的一系列動態(tài)數(shù)據(jù)集合體,數(shù)據(jù)的價值隨著時間的流逝而降低,因此必須實時計算給出秒級響應(yīng)。流式計算,就是對數(shù)據(jù)流進行處理,是實時計算。

批量計算則統(tǒng)一收集數(shù)據(jù),存儲到數(shù)據(jù)庫中,然后對數(shù)據(jù)進行批量處理的數(shù)據(jù)計算方式。兩者的區(qū)別主要體現(xiàn)在以下幾個方面:

(1)數(shù)據(jù)時效性不同

  • 流式計算實時、低延遲;
  • 批量計算非實時、高延遲。

(2)數(shù)據(jù)特征不同

  • 流式計算的數(shù)據(jù)一般是動態(tài)的、沒有邊界的;
  • 批處理的數(shù)據(jù)一般則是靜態(tài)數(shù)據(jù)。

(3)應(yīng)用場景不同

  • 流式計算應(yīng)用在實時場景,時效性要求比較高的場景,如實時推薦、業(yè)務(wù)監(jiān)控…。
  • 批量計算一般說批處理,應(yīng)用在實時性要求不高、離線計算的場景下,數(shù)據(jù)分析、離線報表等。

(4)運行方式不同

  • 流式計算的任務(wù)持續(xù)進行的;
  • 批量計算的任務(wù)則一次性完成。

流式計算框架平臺與相關(guān)產(chǎn)品

第一類,商業(yè)級流式計算平臺(IBM InfoSphere Streams、IBM StreamBase等);

第二類,開源流式計算框架(Twitter Storm、S4等);

第三類,公司為支持自身業(yè)務(wù)開發(fā)的流式計算框架。

(1)Strom:Twitter 開發(fā)的第一代流處理系統(tǒng)。

(2)Heron:Twitter 開發(fā)的第二代流處理系統(tǒng)。

(3)Spark streaming:是Spark核心API的一個擴展,可以實現(xiàn)高吞吐量的、具備容錯機制的實時流數(shù)據(jù)的處理。

(4)Flink:是一個針對流數(shù)據(jù)和批數(shù)據(jù)的分布式處理引擎。

(5)Apache Kafka:由Scala寫成。該項目的目標(biāo)是為處理實時數(shù)據(jù)提供一個統(tǒng)一、高通量、低等待的平臺。

流式計算主要應(yīng)用場景

流式處理可以用于兩種不同場景:事件流和持續(xù)計算。

(1)事件流

事件流具能夠持續(xù)產(chǎn)生大量的數(shù)據(jù),這類數(shù)據(jù)最早出現(xiàn)與傳統(tǒng)的銀行和股票交易領(lǐng)域,也在互聯(lián)網(wǎng)監(jiān)控、無線通信網(wǎng)等領(lǐng)域出現(xiàn)、需要以近實時的方式對更新數(shù)據(jù)流進行復(fù)雜分析如趨勢分析、預(yù)測、監(jiān)控等。簡單來說,事件流采用的是查詢保持靜態(tài),語句是固定的,數(shù)據(jù)不斷變化的方式。

(2)持續(xù)計算

比如對于大型網(wǎng)站的流式數(shù)據(jù):網(wǎng)站的訪問PV/UV、用戶訪問了什么內(nèi)容、搜索了什么內(nèi)容等,實時的數(shù)據(jù)計算和分析可以動態(tài)實時地刷新用戶訪問數(shù)據(jù),展示網(wǎng)站實時流量的變化情況,分析每天各小時的流量和用戶分布情況;比如金融行業(yè),毫秒級延遲的需求至關(guān)重要。一些需要實時處理數(shù)據(jù)的場景也可以應(yīng)用Storm,比如根據(jù)用戶行為產(chǎn)生的日志文件進行實時分析,對用戶進行商品的實時推薦等。

大數(shù)據(jù)流式計算可以廣泛應(yīng)用于金融銀行、互聯(lián)網(wǎng)、物聯(lián)網(wǎng)等諸多領(lǐng)域,如股市實時分析、插入式廣告投放、交通流量實時預(yù)警等場景,主要是為了滿足該場景下的實時應(yīng)用需求。數(shù)據(jù)往往以數(shù)據(jù)流的形式持續(xù)到達數(shù)據(jù)計算系統(tǒng),計算功能的實現(xiàn)是通過有向任務(wù)圖的形式進行描述,數(shù)據(jù)流在有向任務(wù)圖中流過后,會實時產(chǎn)生相應(yīng)的計算結(jié)果。整個數(shù)據(jù)流的處理過程往往是在毫秒級的時間內(nèi)完成的。

通常情況下,大數(shù)據(jù)流式計算場景具有以下鮮明特征。

1)在流式計算環(huán)境中,數(shù)據(jù)是以元組為單位,以連續(xù)數(shù)據(jù)流的形態(tài),持續(xù)地到達大數(shù)據(jù)流式計算平臺。數(shù)據(jù)并不是一次全部可用,不能夠一次得到全量數(shù)據(jù),只能在不同的時間點,以增量的方式,逐步得到相應(yīng)數(shù)據(jù)。

2)數(shù)據(jù)源往往是多個,在進行數(shù)據(jù)流重放的過程中,數(shù)據(jù)流中各個元組間的相對順序是不能控制的。也就是說,在數(shù)據(jù)流重放過程中,得到完全相同的數(shù)據(jù)流(相同的數(shù)據(jù)元組和相同的元組順序)是很困難的,甚至是不可能的。

3)數(shù)據(jù)流的流速是高速的,且隨著時間在不斷動態(tài)變化。這種變化主要體現(xiàn)在兩個方面,一個方面是數(shù)據(jù)流流速大小在不同時間點的變化,這就需要系統(tǒng)可以彈性、動態(tài)地適應(yīng)數(shù)據(jù)流的變化,實現(xiàn)系統(tǒng)中資源、能耗的高效利用;另一方面是數(shù)據(jù)流中各個元組內(nèi)容(語義)在不同時間點的變化,即概念漂移,這就需要處理數(shù)據(jù)流的有向任務(wù)圖可以及時識別、動態(tài)更新和有效適應(yīng)這種語義層面上的變化。

4)實時分析和處理數(shù)據(jù)流是至關(guān)重要的,在數(shù)據(jù)流中,其生命周期的時效性往往很短,數(shù)據(jù)的時間價值也更加重要。所有數(shù)據(jù)流到來后,均需要實時處理,并實時產(chǎn)生相應(yīng)結(jié)果,進行反饋,所有的數(shù)據(jù)元組也僅會被處理一次。雖然部分?jǐn)?shù)據(jù)可能以批量的形式被存儲下來,但也只是為了滿足后續(xù)其他場景下的應(yīng)用需求。

5)數(shù)據(jù)流是無窮無盡的,只要有數(shù)據(jù)源在不斷產(chǎn)生數(shù)據(jù),數(shù)據(jù)流就會持續(xù)不斷地到來。這也就需要流式計算系統(tǒng)永遠(yuǎn)在線運行,時刻準(zhǔn)備接收和處理到來的數(shù)據(jù)流。在線運行是流式計算系統(tǒng)的一個常態(tài),一旦系統(tǒng)上線后,所有對該系統(tǒng)的調(diào)整和優(yōu)化也將在在線環(huán)境中開展和完成。

6)多個不同應(yīng)用會通過各自的有向任務(wù)圖進行表示,并將被部署在一個大數(shù)據(jù)計算平臺中,這就需要整個計算平臺可以有效地為各個有向任務(wù)圖分配合理資源,并保證滿足用戶服務(wù)級目標(biāo)。同時各個資源間需要公平地競爭資源、合理地共享資源,特別是要滿足不同時間點各應(yīng)用間系統(tǒng)資源的公平使用。

什么是流批一體架構(gòu)?

流處理和批處理都是常用的數(shù)據(jù)處理方式,它們各有優(yōu)劣。流處理通常用于需要實時響應(yīng)的場景,如在線監(jiān)控和警報系統(tǒng)等。而批處理則通常用于離線數(shù)據(jù)分析和挖掘等大規(guī)模數(shù)據(jù)處理場景。選擇合適的處理方式取決于具體的業(yè)務(wù)需求和數(shù)據(jù)處理場景。

以前很多系統(tǒng)的架構(gòu)都是采用的Lambda架構(gòu),它將所有的數(shù)據(jù)分成了三個層次:批處理層、服務(wù)層和速率層,每個層次都有自己的功能和目的。

  • 批處理層:負(fù)責(zé)離線計算和歷史數(shù)據(jù)的存儲。
  • 服務(wù)層:負(fù)責(zé)在線查詢和實時數(shù)據(jù)的處理。
  • 速率層:負(fù)責(zé)對實時數(shù)據(jù)進行快速的處理和查詢。

這種架構(gòu),需要一套流處理平臺和一套批處理平臺,這就可能導(dǎo)致了一些問題:

  1. 資源浪費:一般來說,白天是流計算的高峰期,此時需要更多的計算資源,相對來說,批計算就沒有嚴(yán)格的限制,可以選擇凌晨或者白天任意時刻,但是,流計算和批計算的資源無法進行混合調(diào)度,無法對資源進行錯峰使用,這就會導(dǎo)致資源的浪費。
  2. 成本高:流計算和批計算使用的是不同的技術(shù),意味著需要維護兩套代碼,不論是學(xué)習(xí)成本還是維護成本都會更高。
  3. 數(shù)據(jù)一致性:兩套平臺都是不一樣的,可能會導(dǎo)致數(shù)據(jù)不一致的問題。

因此,流批一體誕生了!

流批一體的技術(shù)理念最早是2015年提出的,初衷就是讓開發(fā)能用同一套代碼和API實現(xiàn)流計算和批計算,但是那時候?qū)嶋H落地的就少之又少,阿里巴巴在2020年雙十一首次實際落地。

Flink流批一體架構(gòu):

目前有哪些流處理的框架?

Kafka Stream

基于 Kafka 的一個輕量級流式計算框架,我們可以使用它從一個或多個輸入流中讀取數(shù)據(jù),對數(shù)據(jù)進行轉(zhuǎn)換和處理,然后將結(jié)果寫入一個或多個輸出流中。

工作原理:讀取數(shù)據(jù)流 -> 數(shù)據(jù)轉(zhuǎn)換/時間窗口處理/狀態(tài)管理 -> 任務(wù)調(diào)度 -> 輸出結(jié)果

簡單示例:統(tǒng)計20秒內(nèi)每個input的key輸入的次數(shù),典型的例子:統(tǒng)計網(wǎng)站20秒內(nèi)用戶的點擊次數(shù)。

public class WindowCountApplication {

    private static final String STREAM_INPUT_TOPIC = "streams-window-input";
    private static final String STREAM_OUTPUT_TOPIC = "streams-window-output";

    public static void main(String[] args) {
        Properties props = new Properties();
        props.put(APPLICATION_ID_CONFIG, WindowCountApplication.class.getSimpleName());
        props.put(BOOTSTRAP_SERVERS_CONFIG, KafkaConstant.BOOTSTRAP_SERVERS);
        props.put(DEFAULT_KEY_SERDE_CLASS_CONFIG, Serdes.String().getClass());
        props.put(DEFAULT_VALUE_SERDE_CLASS_CONFIG, Serdes.String().getClass());

        StreamsBuilder builder = new StreamsBuilder();
        builder.stream(STREAM_INPUT_TOPIC, Consumed.with(Serdes.String(), Serdes.String()))
                .peek((key, value) -> Console.log("[input] key={}, value={}", key, value))
                .groupByKey()
                .windowedBy(SessionWindows.ofInactivityGapWithNoGrace(Duration.ofSeconds(20)))
                .count()
                .toStream()
                .map((key, value) -> new KeyValue<>(key.key(), value))
                .peek((key, value) -> Console.log("[output] key={}, value={}", key, value))
                .to(STREAM_OUTPUT_TOPIC, Produced.with(Serdes.String(), Serdes.Long()));

        KafkaStreams kStreams = new KafkaStreams(builder.build(), props);
        Runtime.getRuntime().addShutdownHook(new Thread(kStreams::close));
        kStreams.start();
    }
}

行結(jié)果:{key}={value},發(fā)送了3次A=1,2次B=1,以及1次C=1,統(tǒng)計結(jié)果在預(yù)期之內(nèi),即A出現(xiàn)3次,B出現(xiàn)2次,C出現(xiàn)1次。

Pulsar Function

和 Kafka Stream 類似,也是輕量級的流處理框架,不過它是基于 Pulsar 實現(xiàn)的一個流處理框架,同樣的,也是從一個或多個輸入流中讀取數(shù)據(jù),對數(shù)據(jù)進行轉(zhuǎn)換和處理,然后將結(jié)果寫入一個或多個輸出流中。感興趣的可以參考我之前寫的文章:Pulsar Function簡介以及使用

工作原理:訂閱消息流 -> 處理消息 -> 發(fā)布處理結(jié)果

簡單示例:LocalRunner模式,按照逗號“,”去切分 input topic 的消息,然后轉(zhuǎn)換成數(shù)字進行求和,結(jié)果發(fā)送至 output topic。

public class IntSumFunction implements Function<String, Integer> {

    public static final String BROKER_SERVICE_URL = "pulsar://localhost:6650";
    public static final String INPUT_TOPIC = "persistent://public/default/int-sum-input";
    public static final String OUTPUT_TOPIC = "persistent://public/default/int-sum-output";
    public static final String LOG_TOPIC = "persistent://public/default/int-sum-log";

    @Override
    public Integer process(String input, Context context) {
        Console.log("input: {}", input);
        return Arrays.stream(input.split(","))
                .map(Integer::parseInt)
                .mapToInt(Integer::intValue)
                .sum();
    }

    public static void main(String[] args) throws Exception {
        FunctionConfig functionConfig = new FunctionConfig();
        functionConfig.setName(IntSumFunction.class.getSimpleName());
        functionConfig.setClassName(IntSumFunction.class.getName());
        functionConfig.setRuntime(FunctionConfig.Runtime.JAVA);
        functionConfig.setInputs(Collections.singleton(INPUT_TOPIC));
        functionConfig.setOutput(OUTPUT_TOPIC);
        functionConfig.setLogTopic(LOG_TOPIC);

        LocalRunner localRunner = LocalRunner.builder()
                .brokerServiceUrl(BROKER_SERVICE_URL)
                .functionConfig(functionConfig)
                .build();
        localRunner.start(true);
    }
}

運行結(jié)果:1+2+3+4+5+6=21

Flink

  • 一種流處理框架,具有低延遲、高吞吐量和高可靠性的特性。
  • 支持流處理和批處理,并支持基于事件時間和處理時間的窗口操作、狀態(tài)管理、容錯機制等。
  • 提供了豐富的算子庫和 API,支持復(fù)雜的數(shù)據(jù)流處理操作。

工作原理:接收數(shù)據(jù)流 -> 數(shù)據(jù)轉(zhuǎn)換 -> 數(shù)據(jù)處理 -> 狀態(tài)管理 -> 容錯處理 -> 輸出結(jié)果

簡單來說就是將數(shù)據(jù)流分成多個分區(qū),在多個任務(wù)中并行處理,同時維護狀態(tài)信息,實現(xiàn)高吞吐量、低延遲的流處理。

簡單示例:從9966端口讀取數(shù)據(jù),將輸入的句子用空格分割成多個單詞,每隔5秒做一次單詞統(tǒng)計。

public class WindowSocketWordCount {

    private static final String REGEX = " ";

    public static void main(String[] args) throws Exception {
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        DataStreamSource<String> socketTextStreamSource = env.socketTextStream("localhost", 9966);

        SingleOutputStreamOperator<Tuple2<String, Integer>> streamOperator = socketTextStreamSource
                .flatMap((FlatMapFunction<String, Tuple2<String, Integer>>) (sentence, collector) -> {
                    for (String word : sentence.split(REGEX)) {
                        collector.collect(new Tuple2<>(word, 1));
                    }
                })
                .returns(Types.TUPLE(Types.STRING, Types.INT))
                .keyBy(value -> value.f0)
                .window(TumblingProcessingTimeWindows.of(Time.seconds(5)))
                .sum(1);

        streamOperator.print();
        env.execute();
    }
}

運行結(jié)果:

Storm

  • 一個開源的流處理引擎,旨在實現(xiàn)快速、可靠的數(shù)據(jù)流處理。
  • 是業(yè)界最早出現(xiàn)的一個流處理框架(2011年),但是現(xiàn)在已經(jīng)有許多其它優(yōu)秀的流處理框架了,所以它在現(xiàn)在并不是唯一選擇。

工作原理:將數(shù)據(jù)流分成多個小的流(也稱為tuple),并將這些小流通過一系列的操作(也稱為bolt)進行處理。

簡單示例:在本地模式,使用Storm內(nèi)置的RandomSentenceSpout充當(dāng)數(shù)據(jù)源進行測試,用空格拆分生成的句子為多個單詞,統(tǒng)計每個單詞出現(xiàn)次數(shù)。

public class WindowedWordCountApplication {

    public static void main(String[] args) throws Exception {
        StreamBuilder builder = new StreamBuilder();
        builder.newStream(new RandomSentenceSpout(), new ValueMapper<String>(0), 2)
                .window(TumblingWindows.of(Duration.seconds(2)))
                .flatMap(sentence -> Arrays.asList(sentence.split(" ")))
                .peek(sentence -> Console.log("Random sentence: {}", sentence))
                .mapToPair(word -> Pair.of(word, 1))
                .countByKey()
                .peek(pair -> Console.log("Count word: ", pair.toString()));

        LocalCluster cluster = new LocalCluster();
        cluster.submitTopology("windowedWordCount", new Config(), builder.build());
        Utils.sleep(20000);
        cluster.shutdown();
    }
}

內(nèi)置的RandomSentenceSpout隨機生成數(shù)據(jù)關(guān)鍵源代碼:

@Override
public void nextTuple() {
    Utils.sleep(100);
    String[] sentences = new String[]{
        sentence("the cow jumped over the moon"), sentence("an apple a day keeps the doctor away"),
        sentence("four score and seven years ago"), sentence("snow white and the seven dwarfs"), sentence("i am at two with nature")
    };
    final String sentence = sentences[rand.nextInt(sentences.length)];
    LOG.debug("Emitting tuple: {}", sentence);
    collector.emit(new Values(sentence));
}

運行結(jié)果:隨機找一個單詞“nature”,統(tǒng)計的次數(shù)為10次。

Spark Streaming

基于 Spark API 的擴展,支持對實時數(shù)據(jù)流進行可擴展、高吞吐量、容錯的流處理。

工作原理:接收實時輸入數(shù)據(jù)流并將數(shù)據(jù)分成批次,然后由 Spark 引擎處理以批次生成最終結(jié)果流。

簡單示例:從 kafka 的 spark-streaming topic 讀取數(shù)據(jù),按照空格“ ”拆分,統(tǒng)計每一個單詞出現(xiàn)的次數(shù)并打印。

public class JavaDirectKafkaWordCount {

    private static final String KAFKA_BROKERS = "localhost:9092";
    private static final String KAFKA_GROUP_ID = "spark-consumer-group";
    private static final String KAFKA_TOPICS = "spark-streaming";
    private static final Pattern SPACE = Pattern.compile(" ");

    public static void main(String[] args) throws Exception {
        Configurator.setRootLevel(Level.WARN);
        SparkConf sparkConf = new SparkConf().setMaster("local[1]").setAppName("spark-streaming-word-count");
        JavaStreamingContext streamingContext = new JavaStreamingContext(sparkConf, Durations.seconds(2));

        Set<String> topicsSet = new HashSet<>(Arrays.asList(KAFKA_TOPICS.split(",")));
        Map<String, Object> kafkaParams = new HashMap<>();
        kafkaParams.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, KAFKA_BROKERS);
        kafkaParams.put(ConsumerConfig.GROUP_ID_CONFIG, KAFKA_GROUP_ID);
        kafkaParams.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
        kafkaParams.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);

        JavaInputDStream<ConsumerRecord<String, String>> messages = KafkaUtils.createDirectStream(
                streamingContext,
                LocationStrategies.PreferConsistent(),
                ConsumerStrategies.Subscribe(topicsSet, kafkaParams));

        JavaDStream<String> linesStream = messages.map(ConsumerRecord::value);
        JavaPairDStream<String, Integer> wordCountStream = linesStream
                .flatMap(line -> Arrays.asList(SPACE.split(line)).iterator())
                .mapToPair(word -> new Tuple2<>(word, 1))
                .reduceByKey(Integer::sum);

        wordCountStream.print();

        streamingContext.start();
        streamingContext.awaitTermination();
    }
}

運行結(jié)果:

如何選擇流處理框架?

  • 簡單數(shù)據(jù)流處理
    如果只是輕量級使用的話,可以結(jié)合技術(shù)棧使用消息中間件自帶的流處理框架就更節(jié)省成本。
  • 使用的 Kafka 就用 Kafka Stream。
  • 使用的 Pulsar 就用 Pulsar Function。
  • 復(fù)雜數(shù)據(jù)流場景

綜上,可以結(jié)合數(shù)據(jù)規(guī)模、技術(shù)棧、處理延遲功能特性、未來的考慮、社區(qū)活躍度、成本和可用性等等進行選擇。

責(zé)任編輯:華軒 來源: 數(shù)字化助推器
相關(guān)推薦

2019-07-01 15:40:53

大數(shù)據(jù)架構(gòu)流處理

2023-05-16 07:24:25

數(shù)據(jù)湖快手

2020-01-13 14:39:06

FlinkSQL無限流

2023-09-05 07:22:17

Hudi數(shù)據(jù)存儲

2022-06-30 09:30:36

FlinkSQL流批一體京東

2022-09-29 09:22:33

數(shù)據(jù)倉

2023-03-30 07:40:03

FeatHub 項目特征工程開發(fā)

2021-08-02 10:19:08

Dataphin 數(shù)倉架構(gòu)存儲計算分離

2021-11-18 21:09:50

流批場景引擎

2024-03-25 08:15:02

數(shù)據(jù)分析AI 一體化大數(shù)據(jù)

2016-11-07 12:36:18

2023-09-24 20:31:23

數(shù)字化

2014-02-12 09:15:17

Oracle大數(shù)據(jù)

2013-09-17 14:23:52

天云大數(shù)據(jù)一體機

2017-04-01 10:10:07

桌面一體機采購

2020-11-24 10:26:08

2019-11-28 20:51:10

阿里云Alink開源

2012-11-26 13:02:10

浪潮大數(shù)據(jù)一體機

2012-11-28 20:56:03

浪潮一體機浪潮大數(shù)據(jù)

2013-05-31 10:19:12

XData大數(shù)據(jù)一體
點贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 国产午夜精品一区二区三区嫩草 | 日韩在线欧美 | 91亚洲欧美 | 久久久久免费精品国产小说色大师 | 在线观看中文视频 | 欧美在线视频网 | 亚洲精品字幕 | 欧美在线一二三 | 欧美天堂在线观看 | 亚洲午夜电影 | 亚洲视频区 | a级片在线观看 | 亚洲免费在线观看 | 亚洲狠狠爱 | 超碰在线人人干 | 欧美色综合天天久久综合精品 | 亚洲国产精品成人久久久 | 特黄毛片| 国产一区二区a | 精品美女久久久 | 国产精品一区二 | 免费视频二区 | 午夜一级大片 | 久久久久九九九女人毛片 | 免费黄色的视频 | 久久成人精品视频 | 久久狼人天堂 | 亚洲最色网站 | 欧美男人亚洲天堂 | 色婷婷久久久亚洲一区二区三区 | 青青草一区 | 精品久久久久久久 | 色综合久久天天综合网 | 91精品国产色综合久久 | 精品国产一区二区三区av片 | 国产在线精品一区二区 | 夜夜操天天艹 | 91精品91久久久 | 亚洲一区| 热久久999 | 国产精品久久久久久中文字 |