Size: a a a

2020 May 27

RI

Rudnev Il’ya in Moscow Spark
Паша Финкельштейн
Слуште, а какой правильный способ заставить раотать в спарке что-то типа Seq(1,null,3).toDS()?
Seq(
 1.asInstanceOf[Integer],
 null.asInstanceOf[Integer],
 3.asInstanceOf[Integer]
).toDS()
источник

RI

Rudnev Il’ya in Moscow Spark
Seq(1, null, 3)
 .map(_.asInstanceOf[Integer])
 .toDS()
вот так получше
источник

GP

Grigory Pomadchin in Moscow Spark
Rudnev Il’ya
Seq(1, null, 3)
 .map(_.asInstanceOf[Integer])
 .toDS()
вот так получше
сомневаюсь что это правильнйы способ
источник

GP

Grigory Pomadchin in Moscow Spark
источник

RI

Rudnev Il’ya in Moscow Spark
ну суть в том что бы использовать Integer, не увидел что написали
источник

GP

Grigory Pomadchin in Moscow Spark
))) да Паша над интересной штукой работает он хочет котленовские налаблы завести
источник

N

Nikolay in Moscow Spark
Паша Финкельштейн
ну вообще оно прям н может toDS вызвать потому что не может его вызвать на Any
Scala в этом выводит тип Seq[Any] . Т.е она ищет ближайшего общего потомка для всех значений , а  доя Seq[Any] не существует декодера т.к в декодере нужен потомок DataType , а для Any такого нет
источник
2020 May 28

ПФ

Паша Финкельштейн... in Moscow Spark
Nikolay
Scala в этом выводит тип Seq[Any] . Т.е она ищет ближайшего общего потомка для всех значений , а  доя Seq[Any] не существует декодера т.к в декодере нужен потомок DataType , а для Any такого нет
Это понятно, да
источник

ПФ

Паша Финкельштейн... in Moscow Spark
Grigory Pomadchin
))) да Паша над интересной штукой работает он хочет котленовские налаблы завести
Причём уже много где работает :)
источник

RI

Rudnev Il’ya in Moscow Spark
А в котлине Spark использовать это обыденность?
источник

PK

Pavel Klemenkov in Moscow Spark
источник

M

Mi in Moscow Spark
Rudnev Il’ya
А в котлине Spark использовать это обыденность?
пока что нет =(
источник

VK

Vitaly Khudobakhshov in Moscow Spark
Rudnev Il’ya
А в котлине Spark использовать это обыденность?
нет, мы сейчас только работаем над поддержкой, какие-то вещи давно можно делать с Java API, но не очень приятно
источник

M

Mi in Moscow Spark
Vitaly Khudobakhshov
нет, мы сейчас только работаем над поддержкой, какие-то вещи давно можно делать с Java API, но не очень приятно
делаете суппорт либу для спарка на основе java API?
источник

VK

Vitaly Khudobakhshov in Moscow Spark
Mi
делаете суппорт либу для спарка на основе java API?
Не, мы делаем нормальный Kotlin API для Dataset и spark-shell для Kotlin, мы планируем сделать PR в Spark в некоторой перспективе.
источник

M

Mi in Moscow Spark
это еще круче
источник

Sa

Salam andra in Moscow Spark
Топчик, жаве будет плохо
источник

VK

Vitaly Khudobakhshov in Moscow Spark
Какие-то вещи например уже работают в Zeppelin 0.9, там уже есть наш PR, но реально там работать можно только с DataFrame и RDD, что маловато по меркам 2020 =)
источник

AS

Andrey Smirnov in Moscow Spark
интересно, а как часто используются Dataset, по моей практике, если наберется 5%, то уже хорошо, rdd чаще используется
источник

M

Maksim in Moscow Spark
А что кроме датафреймов и rdd нынче модно в 2020?)
источник