scala — أسئلة مع إجابات

1 إجابة
الخط private val keyComparator = util.Comparator.comparing[(String, String), String]((p: (String, String)) => p._1) ينتج الخطأ [error] ...: overloaded method value comparing with alternatives: [error] (x$1: java.util.function.Function[_ >: (String, String), _ <: String])java.util.Compar...
30.07.2018, 03:27
2 الاجابة
لدي طريقة لفئة تطبق مجموعة للأعداد الصحيحة باستخدام بنية بيانات شجرة البحث الثنائية. إحدى الطرق هي contains الطريقة التي ترجع true إذا احتوت مجموعة على عدد صحيح معين كل من تنفيذ الطريقة أدناه صحيح ، لكني أحاول أن أفهم لماذا تفعل ذلك بهذه الطريقة: def contains(x: Int): Boolean = if (x < elem...
30.07.2018, 01:52
1 إجابة
أنا أستخدم الكود التالي ولكني قرأت ذلك iterator.duplicate هي عملية مكلفة ، أليس كذلك؟ هل هناك طريقة لاستخدام شيء آخر في الكود الخاص بي لجعله أفضل في الأداء؟ ال myRdd يكون RDD[LabeledPoint] . الشيء هو محاولة التحول من RDD [LabeledPoint] إلى RDD [(سلسلة ، Labelepoint)]: var result = List[(String, La...
apache-spark
30.07.2018, 00:06
2 الاجابة
أحاول الاستعلام عن جداول كاساندرا المحلية باستخدام Apache-Spark ، ولكني أواجه هذا الخطأ عند تشغيل أي بيان عرض محدد Could not initialize class com.datastax.spark.connector.types.TypeConverter$ إصدارات: كاساندرا: الإصدار 3.11.2 | الإصدار cqlsh 5.0.1 أباتشي سبارك: الإصدار 2.3.1 سكالا الإصدار 2....
apache-spark
cassandra
29.07.2018, 23:05
1 إجابة
لدي 2 dataframes الإدخال مثل ذلك المؤهلين +---------+--------------------+ | cid| eligibleUIds| +---------+--------------------+ | 1234|offer3,offer1,offer2| | 2345| offer1,offer3| | 3456| offer2,offer3| | 4567| offer2| | 5678| ...
apache-spark
apache-spark-sql
29.07.2018, 22:54
1 إجابة
لدي Monix Scheduler أن جدولة مهمة عرضة للخطأ: import scala.concurrent.duration._ import monix.eval.Task import monix.execution.Scheduler import java.time._ scheduler.scheduleWithFixedDelay(0.seconds, 1.seconds) { IO(println("qq")) .map{ _ => if (Instant.now.getEpochSeco...
multithreading
concurrency
future
monix
14.07.2018, 09:35
1 إجابة
أنا مستجد لسكالا ، يرجى الاطلاع على التعليمات البرمجية التالية. abstract class Pizza() { def toppings: List[String] def price: BigDecimal } trait Large extends Pizza { abstract override def price: BigDecimal = super.price * 2 } trait Cheese extends Pizza { abstract override def toppings: Li...
traits
decorator
14.07.2018, 08:23
1 إجابة
scala> val results = spark.sql("select _c1, count(1) from data group by _c1 order by count(*) desc") results: org.apache.spark.sql.DataFrame = [_c1: string, count(1): bigint] scala> results.persist() res18: results.type = [_c1: string, count(1): bigint] scala> results.show(20, false) يحص...
apache-spark
14.07.2018, 07:00
4 الاجابة
حصلت على قائمتين: val list1:List[Int] = List(5, 2, 6) val list2:List[Any] = List("a", "b", "c", "d", "e", "f", "g", "h", "i", "j","k") مثل ذلك list1.sum >= list2.size I want a list of lists formed with elements in list2 consecutively with the sizes mentioned in list1. فمثلا: إذا كان...
list
collections
14.07.2018, 04:40
1 إجابة
كيفية الحصول على قيم الخصائص تلك التي تم تعريفها في ملف البرنامج النصي shell (bash) باستخدام رمز Scala 2.11؟ [IMG_OUR_ID=8447.jpg] أيضا ، كيف يمكنني إحضار القيم المصدرة (bash) لملف server_env.sh ؟ حاولت الحصول عليه باستخدام sys.env() ومع ذلك فإنها ترجع فارغة. [IMG_OUR_ID=8448.jpg] ...
14.07.2018, 01:28
1 إجابة
أكتب دروسًا لتمثيل مجموعة من الأعداد الصحيحة. هكذا فعلت ذلك: abstract class IntSet { def incl(x: Int): IntSet def union(x: IntSet): IntSet def union1(x: IntSet): IntSet } class Empty extends IntSet { def incl(x: Int) = new NonEmpty(x, new Empty, new Empty) def union(x: IntSet) = x d...
recursion
14.07.2018, 01:05
3 الاجابة
هل يمكنني تحديد اسم طلب بشكل ديناميكي؟ حاولت ذلك مع http(s"/product${prID}" ولكني أتلقى خطأً (لم يتم العثور على متغير معرف): val searchByProductIdTask = exec(http(s"/product${prID}") .post(appURL + "/api/product/search") .headers(jsonHeader) .body(StringBody(my_string_bo...
gatling
19.06.2018, 11:52
1 إجابة
أود أن تصميم تدفق التي ستنسحب فقط من المنبع عندما ActorRef يتلقى بعض رسالة إقرار. حالة استخدامي هي استخدام بعض الجهات الفاعلة المجمعة الثابتة للقيام بالعمل. لديّ وصي يحافظ على ما إذا كان هناك عمال متاحون أم لا. عندما يصبح الممثل متاحًا ، سينشر رسالة. أود أن يكون Flow على دراية بهذه الرسالة لسحب وظ...
akka
akka-stream
19.06.2018, 11:00
1 إجابة
لدي بعض البيانات المخزنة كملفات باركيه وفئات حالات مطابقة لمخطط البيانات. يتعامل Spark بشكل جيد مع أنواع المنتجات العادية ، لذلك إذا كان لدي case class A(s:String, i:Int) يمكنني القيام به بسهولة spark.read.parquet(file).as[A] ولكن من ما أفهمه ، لا يتعامل Spark مع أنواع الانفصال ، لذلك عندما يكون ...
apache-spark
apache-spark-sql
19.06.2018, 10:48
فوق
قائمة طعام